So ist es oft nicht einfach, für zentrale Fragestellungen verlässliche Antworten auf vermeintlich einfache Fragen zu erhalten. Egal, ob es sich um Finanzdaten, Personalkennzahlen oder sonstige zentrale Fragestellungen handelt, diese Informationen werden häufig mit Hilfe von Excel und aufwändiger E-Mail-Kommunikation erhoben. Die Daten müssen angefragt werden, es muss nachgehakt werden, anschließend müssen die Daten konsolidiert werden, nur um festzustellen, dass teilweise fehlerhafte oder unvollständige Angaben gemacht wurden: ein fehleranfälliger, mühsamer und Ressourcen bindender Prozess.
Es geht auch anders. Mithilfe moderner Software und der nötigen Umsetzungskraft lassen sich neue Prozesse etablieren, um verteilte Informationen wesentlich schneller, komfortabler und verlässlicher aus einer heterogenen Systemlandschaft zu erheben. So bleibt mehr Zeit für die eigentliche Analyse. Der Ansatz: Einfache, benutzerfreundliche Erfassung in dezentralen Einheiten und einfaches, nachvollziehbares Monitoring in der Zentrale. Wichtigste Grundbedingung für die Steigerung der Datenqualität: Eine eindeutige Zuordnung der Datenverantwortung und eine Protokollierung aller Änderungen.
Ähnlich wie Sorgfalt und pfleglicher Umgang des Fahrers einer Spedition wachsen, wenn er für ‘sein’ Fahrzeug verantwortlich gemacht wird, steigt das Interesse der Datenlieferanten, wenn transparent gemacht wird, wer wann in welcher Qualität Informationen bereitgestellt hat.
Prozesse, Prozesse, Prozesse
In einem komplexen Unternehmen geht es gar nicht ohne die Definition zahlreicher Standardprozesse. Für diese kann die Infrastruktur bereitgestellt werden, sie können überwacht und verbessert werden. Der Knackpunkt ist: Prozesse müssen auch gelebt werden. Eine wichtige Voraussetzung für eine allgemeine Akzeptanz ist ein spürbarer Mehrwert für alle Beteiligten. Es muss einfacher, schneller und unkomplizierter sein, den Standardprozess zu verwenden, anstatt mit eigener Kreativität Aufgaben zu bewältigen.
Im Bereich Datenmanagement lässt sich dies vor allem durch Automatisierung erreichen. Routinefunktionen wie aktive Benachrichtigung an verantwortliche Berichterstatter, Erinnerungen bei Verspätungen und Mitprotokollierung von Datenänderungen sorgen für eine Entlastung der Anwender. Diese können sich auf den für sie wichtigen Teil der Aufgabe konzentrieren: Die eigentliche Datenlieferung. An einem Praxisbeispiel soll dies nun erläutert werden.
Für eine vollständige Jahresberichterstattung werden regelmäßig Informationen aus allen Tochtergesellschaften abgefragt. In der Konzernzentrale wird nun häufig die Excel-Datei des letzten Jahres aktualisiert und per E-Mail verschickt. Das setzt das Vorhandensein einer aktuell gepflegten Adressliste voraus – und ein erhebliches Maß an Organisationsgeschick. Nicht selten übersteigt die Zahl der nach und nach eintreffenden, ausgefüllten Fragebögen die Zahl der verschickten Dateien erheblich. Zum einen, weil unwissentlich zwei oder mehr Mitarbeiter einer Einheit an der Beantwortung arbeiten, zum anderen, weil Aktualisierungen und Verbesserungen zu einem späteren Zeitpunkt nachgereicht werden. Im Ergebnis eine Heidenarbeit für die Zentrale, hier eine konsistente und gültige Version der Daten zu erstellen. Hier kann ein einfach zu bedienendes Datenmanagement-Tool wahre Wunder bewirken.
Qualitätssicherung
Grundsätzlich sind zwei Ansätze zur Steigerung von Datenqualität denkbar: Einerseits manuelle Prüfung, andererseits automatisierte Kontrollen. Effektivität erreicht der Prozess durch Automatisierung und manuelle Bearbeitung der Ausnahmen. Bereits bei der Erfassung der Daten werden über Plausibilitätskontrollen viele Fehleingaben frühzeitig aufgedeckt. Nach Freigabe durch den lokalen Bearbeiter empfiehlt sich bereits eine erste Prüfung durch einen lokal Verantwortlichen. Natürlich müssen die entsprechenden Berechtigungen und Zuordnungen zuvor dem System bekannt gemacht werden – am besten über eine bereits bestehende Benutzer- und Zugriffsverwaltung.
Der lokal Verantwortliche ist entweder mit den Eingaben des Bearbeiters einverstanden oder nimmt selbst noch Ergänzungen vor und gibt anschließend die erfassten Daten an die Zentrale frei. Im Falle von Unstimmigkeiten gibt er die Daten mit der Bitte um Nachbesserung zurück an den lokalen Bearbeiter, der dann wieder die Chance hat, seine Daten zu prüfen und gegebenenfalls anzupassen. Das System schreibt jeweils genau mit, wer welche Eingaben getätigt hat, so dass Änderungen jederzeit vollständig nachvollzogen werden können.
Sind die Daten von der lokalen Einheit an die Zentrale freigegeben, erhält der zentrale Verantwortliche eine E-Mail mit dem Hinweis zur endgültigen Freigabe der Daten. Erst nach Abschluss dieses Prozesses mit der zentralen Freigabe werden die Daten zur Auswertung an das Berichtswesen übergeben. Der Weg vom Executive-Dashboard kann nun lückenlos bis zur Datenherkunft zurückverfolgt werden.
Von großer Bedeutung für das Funktionieren dieser vertrauensbildenden Maßnahme ist die Möglichkeit, den Bearbeitungsstand der laufenden Requests jederzeit nachverfolgen zu können. Nur dann besteht einerseits der Anreiz, durchaus im Sinn eines internen Wettbewerbs, rechtzeitig und vollständig Daten abzuliefern, andererseits auch die Möglichkeit für die Zentrale, den Ausreißern bereits im Prozess der Datenanlieferung besondere Aufmerksamkeit widmen zu können.
Fazit
Mit modernem, lückenlosem Datenmanagement werden die Methoden und Prozesse wesentlich verbessert, die letztendlich eine faktenbasierte Unternehmenssteuerung ermöglichen. Durch die geschickte Nutzung der vorhandenen Ressourcen, einer Aufteilung der Arbeit zwischen dezentralen Einheiten und der Konzernzentrale, vor allem aber der durchgängigen Zuordnung der Datenverantwortung auf namentlich bekannte Personen sorgen im Ergebnis für verlässlichere, aktuellere und vollständigere Informationen für jegliche Art von Berichten.
Der Autor Biagio Clemente ist Leiter Produktmanagement bei zetVisions Data Collector aus Heidelberg.
Die Vernetzung in der Industrie optimiert mit KI Prozesse und reduziert mit Predictive Maintenance ungeplante…
Enterprise AI Maturity Index von ServiceNow: Im Durchschnitt erreichen Unternehmen nur einen KI-Reifegrad von 44…
Wer auf Wechselmedien – wie USB-Laufwerke – angewiesen ist, muss wachsam bleiben, da diese Geräte…
Das Thema künstliche Intelligenz wird immer relevanter. Diese Technologie hat Einfluss auf Arbeitsweisen, Politik und…
SAP S/4HANA-Transformationen sind äußerst komplex und verlaufen oft nicht wie geplant – oder scheitern sogar…
Der Black Friday, der in den USA traditionell am Freitag nach Thanksgiving gefeiert wird, hat…