Schlechte Datenqualität treibt Kosten in die Höhe

Einer der wichtigsten Probleme sei hier die unzureichende Qualität von vorhandenen Daten, so lautet das Fazit einer gemeinsamen Studie von Garnter Research und Völcker Informatik, ein Berliner Unternehmen, das sich auf Identity Management und Datensicherheit spezialisiert hat.

“Üblicherweise liegt die Datenqualität bei den häufig genutzten Active Directory oder Lotus Notes bei 80 bis 85 Prozent”, so Eckhard Völcker, Vorstandsvorsitzender der Völker Informatik. In stark fragmentierten ERP-Landschaften sei es um die Datenqualität in der Regel noch schlechter bestellt.

Je höher die Zahl verschiedener Business-Anwendungen ist, desto höher ist das Risiko von Fehlern in einem Data Warehouse und der nachgeschalteten Auswertung dieser Daten. “Solange sie eine Datenbank aus einer Anwendung heraus befüllen, stimmen die Daten”, so Klaus Webersinke, Vice President Central Europe bei dem Datenqualität-Spezialisten Trillium Software. In Anwendungen verschiedener Hersteller werden beispielsweise Daten unterschiedlich behandelt, benannt oder gelistet. Bei einer Analyse werden dann gegebenenfalls ganze Datensätze nicht erkannt, oder falsch abgelegt.

So ist das Problem von mangelnder Datenqualität nicht nur ein Hemmschuh für Identity-Management-Projekte. “Obwohl die Prozesse für Analysen etwa mit den Tools von Business-Intelligence-Herstellern meist sehr gut ausgeprägt sind, bekommen die Unternehmen und Fachabteilungen am Ende doch falsche Zahlen”, erläutert Webersinke. Daher sollten Daten aus verschiedenen Quellen oder Anwendungen zunächst standardisiert, anschließen bereinigt und dann erst in ein Repository oder ein Data Warehouse überspielt werden.

Völcker Informatik sieht ein weiteres Problem: Viele Unternehmen gingen das Thema falsch an, indem sie das Thema rein technologisch erschlagen wollen. So müssten die Mitarbeiter auf die Notwendigkeit einer hohen Datenqualität getrimmt werden. Und auch die Prozesse im Unternehmen sollten mit Workflows und Audits das Auftreten inkonsistenter Daten verhindern.

Völcker ist überzeugt, dass viele ID-Management-Systeme nur unzureichenden Support für die Qualitätssicherung bieten. In kleineren Unternehmen mit nur wenigen Hundert Mitarbeitern, ließe sich vielleicht noch manuell Abhilfe schaffen. Bei größeren Mitarbeiterzahlen sei jedoch eine manuelle Pflege der Daten nicht mehr zu bewältigen. Daher gelte es auf ein flexibles System zu setzen, das Daten aus verschiedenen Lösungen integrieren könne und sich leicht implementieren lasse.

“Das Identity-Management-Projekt sollte eine Quick Win Situation schaffen und mit geringem Aufwand eine möglichst große Anzahl von Nutzern der am häufigsten genutzten Zielsysteme integrieren”, so Völcker. “Eine schnelle Neunzig-Prozent-Lösung für drei wichtige Zielsysteme ist wichtiger als eine Hundert-Prozent-Lösung für nur ein einziges Zielsystem.”

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

4 Tagen ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

4 Tagen ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

6 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

7 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

1 Woche ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

1 Woche ago