Big Data hat sehr schnell in die Diskussion über IT-Themen Einzug gehalten und nun ist das übliche Spiel zu beobachten: Anbietern positionieren sich mit ihren Lösungen und versuchen, das Thema und die Diskussion darüber in eine für sie vorteilhafte Richtung zu treiben. Und sie stoßen dabei auf offene Ohren, denn Anwender klagen mehr und mehr über einen zunehmenden Verlust der Beherrschung und Kontrolle ihrer Daten. Das hat zum einen technische, aber in entscheidendem Maße auch organisatorisch/fachliche Gründe.
Die fallenden Speicherpreise lassen die Datenbestände stark wachsen. Dies führt überall dort, wo keine genauen Vorgaben existieren zu dem Umstand, dass Datenpflege beispielsweise in E-Mailkonten oder bei Projekten nicht stringent gehandhabt wird. Projektmitarbeiter speichern Daten zur Sicherheit mehrfach ab, ergänzen einzelne Projektordner oder löschen Dateien und sitzen letztendlich auf mehreren abweichenden Versionen. Datenbestände werden nicht aggregiert, sinnvolle Suchfunktionen sind zumeist nicht vorhanden. Kurzum, Data Lifecycle Management findet nicht statt.
IT-Verantwortliche und Fachbereiche schieben sich den Schwarzen Peter häufig gegenseitig zu. Die IT argumentiert mitunter, nicht “Sheriff” spielen zu wollen und versteht sich eher als Dienstleister, der das Business unterstützt. Fachbereiche ziehen Vereinbarungen und Abmachungen zur Speicherdauer von Daten gern zurück, denn diese könnten mitunter noch von Wert sein. Somit entsteht eine für beide Seiten unbefriedigende Situation.
In einer solchen Situation hilft letztendlich nur, Policies einzuführen, die aus Businesssicht den Umgang mit den Daten klar beschreiben und regeln. Dabei geht es weniger um transaktionsorientierte Daten – hier helfen die zugrunde liegenden Systeme in der Regel gut – sondern vielmehr um all die weiteren in den unterschiedlichen Systemen abgelegten Daten. Viele altgediente CIOs und Fachverantwortliche vermissen die Registraturen und Ablagen vergangener Tage.
Content Management ist nicht immer die geeignete Lösung. Wenn Business und IT miteinander reden, einander verstehen, klare Absprachen treffen und diese einhalten, ist viel gewonnen. Auch bei der Datenqualität.
Hinweis: Lesen Sie Artikel von silicon.de ab sofort auch in Google Currents. Jetzt abonnieren.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.