Schlechte Datenqualität treibt Kosten in die Höhe

Einer der wichtigsten Probleme sei hier die unzureichende Qualität von vorhandenen Daten, so lautet das Fazit einer gemeinsamen Studie von Garnter Research und Völcker Informatik, ein Berliner Unternehmen, das sich auf Identity Management und Datensicherheit spezialisiert hat.

“Üblicherweise liegt die Datenqualität bei den häufig genutzten Active Directory oder Lotus Notes bei 80 bis 85 Prozent”, so Eckhard Völcker, Vorstandsvorsitzender der Völker Informatik. In stark fragmentierten ERP-Landschaften sei es um die Datenqualität in der Regel noch schlechter bestellt.

Je höher die Zahl verschiedener Business-Anwendungen ist, desto höher ist das Risiko von Fehlern in einem Data Warehouse und der nachgeschalteten Auswertung dieser Daten. “Solange sie eine Datenbank aus einer Anwendung heraus befüllen, stimmen die Daten”, so Klaus Webersinke, Vice President Central Europe bei dem Datenqualität-Spezialisten Trillium Software. In Anwendungen verschiedener Hersteller werden beispielsweise Daten unterschiedlich behandelt, benannt oder gelistet. Bei einer Analyse werden dann gegebenenfalls ganze Datensätze nicht erkannt, oder falsch abgelegt.

So ist das Problem von mangelnder Datenqualität nicht nur ein Hemmschuh für Identity-Management-Projekte. “Obwohl die Prozesse für Analysen etwa mit den Tools von Business-Intelligence-Herstellern meist sehr gut ausgeprägt sind, bekommen die Unternehmen und Fachabteilungen am Ende doch falsche Zahlen”, erläutert Webersinke. Daher sollten Daten aus verschiedenen Quellen oder Anwendungen zunächst standardisiert, anschließen bereinigt und dann erst in ein Repository oder ein Data Warehouse überspielt werden.

Völcker Informatik sieht ein weiteres Problem: Viele Unternehmen gingen das Thema falsch an, indem sie das Thema rein technologisch erschlagen wollen. So müssten die Mitarbeiter auf die Notwendigkeit einer hohen Datenqualität getrimmt werden. Und auch die Prozesse im Unternehmen sollten mit Workflows und Audits das Auftreten inkonsistenter Daten verhindern.

Völcker ist überzeugt, dass viele ID-Management-Systeme nur unzureichenden Support für die Qualitätssicherung bieten. In kleineren Unternehmen mit nur wenigen Hundert Mitarbeitern, ließe sich vielleicht noch manuell Abhilfe schaffen. Bei größeren Mitarbeiterzahlen sei jedoch eine manuelle Pflege der Daten nicht mehr zu bewältigen. Daher gelte es auf ein flexibles System zu setzen, das Daten aus verschiedenen Lösungen integrieren könne und sich leicht implementieren lasse.

“Das Identity-Management-Projekt sollte eine Quick Win Situation schaffen und mit geringem Aufwand eine möglichst große Anzahl von Nutzern der am häufigsten genutzten Zielsysteme integrieren”, so Völcker. “Eine schnelle Neunzig-Prozent-Lösung für drei wichtige Zielsysteme ist wichtiger als eine Hundert-Prozent-Lösung für nur ein einziges Zielsystem.”

Silicon-Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

17 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

17 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

2 Tagen ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

2 Tagen ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

2 Tagen ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

5 Tagen ago