SAP-Stammdatenqualitätsmanagement: Dem Management die Augen öffnen
Mit der digitalen Transformation steigt die Bedeutung der Unternehmensdaten. Doch deren Qualität ist in vielen Firmen unklar. Höchste Zeit, der unangenehmen Wahrheit ins Auge zu sehen und etwas zu tun.
Wer jemals zur Miete gewohnt und regelmäßig Post für mehrere Vormieter erhalten hat, der weiß: Die Datenbestände der Unternehmen sind alles andere als ein zuverlässiges Fundament für die anstehende digitale Transformation. Und auch die Unternehmen selbst sind sich des Problems grundsätzlich durchaus bewusst, wie Studien, etwa von Experian, PwC und Xerox in Zusammenarbeit mit Forester belegen. Laut der Studie “Datenqualität und -management” von Experian Marketing Services sehen sich neun von zehn Unternehmen (91 Prozent) als betroffen an, wenn es um Mängel in der Datenqualität geht. Dazu zählen unvollständige oder fehlende ebenso wie veraltete und fehlerhaften Daten.
Dass die meisten Unternehmen das Problem dennoch nur halbherzig, wenn überhaupt, angehen, hat unterschiedliche Gründe. Dahinter steht in der Regel eine Hauptursache: Die Qualität der Stammdaten als solche und ihre Folgen sind für die relevanten Entscheider nicht sichtbar.
Erfolgreiches SAP-Stammdatenqualitätsmanagement muss hier ansetzen. Denn ein Problem, das man nicht kennt, lässt sich kaum beheben. Doch wie können Unternehmen die Qualität ihrer SAP-Stammdaten sichtbar machen, ohne vorab viel Geld in teure Analyseprogramme zu investieren? Die Antwort auf diese Frage liegt in einem systematischen, standardisierten Datenqualitätsmanagement. Dabei beruht die erreichte Stammdatenqualität auf dem Zusammenspiel von Organisation, Definition und Prüfung der Qualität in einem durchgängigen, unternehmensweiten Prozess. In Kombination mit einfachen SAP-Querys lässt sich dieser auch ohne teure Analysesoftware ebenso rasch wie nachhaltig implementieren.
Klare Organisation installieren
Das typische Problem bei Stammdaten: Jeder braucht sie, aber niemand will sie pflegen. Denn bei rund 200 Feldern zu einem einzigen Artikel und 10 bis 12 Sichten auf diese Daten kann der Pflegeaufwand beträchtlich sein. Und in der Praxis sind solche Zahlen eher die Regel als die Ausnahme. Deshalb ist Datenqualität zuallererst ein Organisationsthema.
Dabei zeigt die Erfahrung, dass es sich lohnt, die Verantwortlichkeit bis auf Feldebene klar zu regeln. Denn nur so ist sicherzustellen, dass beim Auftreten von Fehlern gleich klar ist, wer ihre Behebung übernimmt. Genauso wichtig ist eine klare Verantwortlichkeit für den Lebenszyklus der Daten – ansonsten besteht die Gefahr, dass Daten gepflegt werden, die niemand mehr braucht. Daher hat sich die Einführung von drei Rollen als sinnvoll erwiesen, deren Aufgabenverteilung beispielsweise im Bereich Materialstamm so aussieht:
- Der Daten-Steward hat die Objektverantwortung, überwacht den Lebenszyklus und verwaltet die Prüfregeln für seinen Bereich, zum Beispiel den Materialstamm.
- Die Prozessmanager kümmern sich um die vertikale Prüfung der Daten entlang der Prozesse wie beispielsweise im Supply Chain Management (SCM) – auch über die Werksgrenzen hinweg. Gemeinsam mit anderen Prozessmanagern, etwa für Controlling oder Vertrieb, stimmen sie ab, ob eine neue Regel oder ein neues Feld die bestehenden Prozesse beeinträchtigt.
- Die Daten-Pfleger unterstützen mit der Prüfung von Daten auf Feldebene in den Bereichen Einkauf oder Produktion beispielsweise den Prozessmanager für SCM. Bei Fehlern wird je nach Situation entweder korrigiert oder in Absprache mit dem Prozessmanager eine Regelanpassung formuliert.
Einheitliche Definitionen schaffen
Wann sind Daten eigentlich “gut”? Und wie können Unternehmen ihre Qualität messen? Grundsätzlich ist klar: Daten müssen vollständig sein. Das bedeutet, dass jeder Datensatz alle notwendigen Attribute enthalten muss. Aber was genau ist beispielsweise das Nettogewicht und was das Bruttogewicht eines Produktes?
Effektive Meeting-und Kollaboration-Lösungen
Mitarbeiter sind heute mit Konnektivität, Mobilität und Video aufgewachsen oder vertraut. Sie nutzen die dazu erforderlichen Technologien privat und auch für die Arbeit bereits jetzt intensiv. Nun gilt es, diese Technologien und ihre Möglichkeiten in Unternehmen strategisch einzusetzen.
Auch die Kriterien der Konsistenz und der Aktualität lassen sich nur anhand klar definierter und dokumentierter Regeln überprüfen. Dabei wird vor allem in der Aktualitätsfrage schnell deutlich, dass die effiziente und effektive Pflege der Stammdaten einen kontinuierlichen Prozess erfordert. Denn die Halbwertszeit von Daten verkürzt sich mit den Produktlebenszyklen zusehends. In diesem Prozess sind neben den Daten selbst auch die Qualitätskriterien immer wieder zu überprüfen.
Sichtbare Ergebnisse bereitstellen
Eine systematische Prüfung der Datenqualität scheitert in vielen Firmen vor allem daran, dass die Qualität der Daten im Allgemeinen nicht sichtbar ist. Zwar ärgern sich Controller, wenn sie Überstunden machen müssen, weil Berichte aufgrund fehlender Daten nicht rechtzeitig fertig werden. Und wenn die Stückkosten zu hoch sind, weil das gleiche Teil von vier verschiedenen Abteilungen unter vier verschiedenen Artikelnummern bei vier verschiedenen Lieferanten in kleiner Stückzahl bestellt wird, sorgt das für Unmut bei der Geschäftsleitung.
Aber solange die Daten nicht systematisch untersucht werden, fällt der Zusammenhang nicht auf. Arbeitszeit und Geld werden weiterhin verschwendet und der Handlungsbedarf wird nicht erkannt. Diesen Teufelskreis zu durchbrechen, ist die zentrale Herausforderung des Datenqualitätsmanagements. Helfen kann dabei eine ganz einfache Visualisierung in Form eines Ampelsystems. Mithilfe von SAP-Query und Excel-Inplace lassen sich die vorhandenen Daten in einfache Listen exportieren, in denen jedes Datenfeld automatisch anhand der im System hinterlegten Qualitätskriterien bewertet wird.
Wie man gefährliche E-Mails identifiziert
Gefälschte E-Mails enthalten häufig Viren oder andere Angreifer. Oft sollen auch private und sensible Daten gestohlen werden. Anhand weniger Kriterien lassen sich gefährliche E-Mails jedoch schnell erkennen.
Je nachdem, ob die jeweiligen Regeln ganz, teilweise oder gar nicht erfüllt werden, erscheint das Feld grün, gelb oder rot hinterlegt. So ist auf den ersten Blick erkennbar, wie es um die Datenqualität insgesamt steht und wo konkreter Handlungsbedarf vorliegt. Ohne hohe Investitionen in teure Analysesoftware.
Kontinuierliche Verbesserung anpacken
Ein zentraler Vorteil des hier vorgestellten Verfahrens besteht darin, dass es automatisch in einen kontinuierlichen Prozess mündet. Denn die einmal angelegten Qualitätsregeln lassen sich jederzeit erneut mit wenigen Mausklicks auf den Datenbestand im SAP-System anwenden. Damit wird der größte Teil der Arbeit automatisch erledigt. Die Datenverantwortlichen in den Fachabteilungen können sich darauf konzentrieren, die Daten zu bearbeiten, bei denen Handlungsbedarf besteht. Dabei hat sich das Ampelsystem in der Praxis als äußerst wirkungsvolle Motivationshilfe erwiesen. Der Ehrgeiz der Mitarbeiter, „alles grün“ melden zu können, macht die vermeintlich lästige Pflicht zum sportlichen Wettkampf, bei dem letztlich alle gewinnen: Unternehmen, weil sie ihre Daten wirtschaftlicher nutzen, Mitarbeiter, weil sie ihre Aufgaben schneller und besser erledigen, und Kunden, die sich über weniger postalischen Spam und bessere Leistungen freuen.
Checkliste: Die sechs häufigsten Gründe für fehlende Datenqualität – und warum sie keine sind
Der Ausspruch “Garbage in, garbage out” stammt aus Zeiten, da Computer noch mit Lochkarten gefüttert wurden. Warum unternehmen die Entscheider dennoch nicht genug, um die Qualität ihrer Stammdaten im SAP-System zu verbessern? In der Praxis sind es immer wieder die gleichen Gründe.
- Das konkrete Ausmaß des Problems ist in den meisten Unternehmen nicht bekannt. Zumindest nicht an den entscheidenden Stellen. Das kann daran liegen, dass Verantwortliche kein Interesse daran haben, eigene Versäumnisse publik zu machen. Deshalb ist es wichtig, die Datenqualität in der IT- und Unternehmensstrategie zu verankern und alle Beteiligten in die Pflicht zur Umsetzung zu nehmen.
- Datenqualität ist nicht auf den ersten Blick sichtbar. Ob ein Datensatz oder auch nur ein Feld innerhalb eines Datensatzes den Qualitätsanforderungen entspricht, lässt sich nicht auf den ersten Blick erkennen. In den meisten Fällen schon deshalb nicht, weil es keine klaren Regeln für die Beurteilung der Datenqualität gibt. Basis jeder Qualifizierungsmaßnahme ist deshalb die Definition von Qualitätskriterien.
- Die Qualifizierung von Bestandsdaten ist aufwendig. Das Dilemma dabei: Je mehr Daten ein Unternehmen besitzt und je stärker diese untereinander verknüpft sind, desto höher ihr Wert, aber auch der Aufwand für ihre Qualifizierung. Nur mit einer möglichst weitgehenden Automatisierung lässt sich dieses Dilemma auflösen.
- Die Halbwertzeit von Unternehmensdaten nimmt ab. Kürzere Produktlebenszyklen und höhere Mobilität von Mitarbeitern oder Kunden sind nur zwei Ursachen dafür, dass Daten heute häufiger geändert werden müssen als noch vor fünf oder zehn Jahren. Entsprechend befristet ist auch der Nutzen von Qualifizierungsmaßnahmen. Vor diesem Hintergrund scheuen Unternehmen häufig den Aufwand für eine systematische Pflege ihrer Stammdaten. Dabei ist gerade eine kontinuierliche Pflege der Datenqualität erheblich effizienter und effektiver als sporadische Einzelprojekte zur Datenqualifizierung.
- Die (versteckten) Kosten mangelhafter Datenqualität werden nicht ausreichend berücksichtigt. Dass eine Werbeaussendung mehr kostet, wenn dreißig Prozent der Adressaten in der Datenbank mehrfach vorhanden sind, leuchtet grundsätzlich ein. Doch solange die konkreten Mehrkosten nicht berechnet werden, fehlt die Motivation, etwas zu tun. Das gilt umso mehr, wenn beispielsweise eine bestimmte, häufig verwendete Schraube unter mehreren verschiedenen Artikelnummern angelegt ist. Was es ein Unternehmen kostet, wenn es Aufträge verliert, weil nur ein dafür benötigtes Teil unter einer falschen Artikelnummer verbucht wurde und der Auftrag deshalb nicht rechtzeitig fertiggestellt werden konnte, lässt sich nur mit beträchtlichem Aufwand ermitteln. Wer hingegen solche Fälle durch die Verbesserung der Stammdatenqualität vermeidet, spart nicht nur die Kosten des Vorfalls, sondern macht auch seine Analyse überflüssig.
- Datenqualitätsmanagement gilt als “unsexy”. Während für die Beschaffung neuer Daten gern prestigeträchtige Projekte mit hohen Budgets und entsprechender Aufmerksamkeit gestartet werden, sind mit der Pflege der bereits vorhandenen Daten allenfalls Fleißkärtchen zu gewinnen. Bleibt die Frage: Ist “arm, aber sexy” für Unternehmen eine Option?