Categories: Data

SAP-Stammdatenqualitätsmanagement: Dem Management die Augen öffnen

Wer jemals zur Miete gewohnt und regelmäßig Post für mehrere Vormieter erhalten hat, der weiß: Die Datenbestände der Unternehmen sind alles andere als ein zuverlässiges Fundament für die anstehende digitale Transformation. Und auch die Unternehmen selbst sind sich des Problems grundsätzlich durchaus bewusst, wie Studien, etwa von Experian, PwC und Xerox in Zusammenarbeit mit Forester belegen. Laut der Studie “Datenqualität und -management” von Experian Marketing Services sehen sich neun von zehn Unternehmen (91 Prozent) als betroffen an, wenn es um Mängel in der Datenqualität geht. Dazu zählen unvollständige oder fehlende ebenso wie veraltete und fehlerhaften Daten.

Martin Kohlsaat, der Autor dieses Gastbeitrags für silicon.de, ist geschäftsführender Gesellschafter der business solutions direkt GmbH, einem Unternehmen der direkt Gruppe (Bild: business solutions direkt)

Dass die meisten Unternehmen das Problem dennoch nur halbherzig, wenn überhaupt, angehen, hat unterschiedliche Gründe. Dahinter steht in der Regel eine Hauptursache: Die Qualität der Stammdaten als solche und ihre Folgen sind für die relevanten Entscheider nicht sichtbar.

Erfolgreiches SAP-Stammdatenqualitätsmanagement muss hier ansetzen. Denn ein Problem, das man nicht kennt, lässt sich kaum beheben. Doch wie können Unternehmen die Qualität ihrer SAP-Stammdaten sichtbar machen, ohne vorab viel Geld in teure Analyseprogramme zu investieren? Die Antwort auf diese Frage liegt in einem systematischen, standardisierten Datenqualitätsmanagement. Dabei beruht die erreichte Stammdatenqualität auf dem Zusammenspiel von Organisation, Definition und Prüfung der Qualität in einem durchgängigen, unternehmensweiten Prozess. In Kombination mit einfachen SAP-Querys lässt sich dieser auch ohne teure Analysesoftware ebenso rasch wie nachhaltig implementieren.

Klare Organisation installieren

Das typische Problem bei Stammdaten: Jeder braucht sie, aber niemand will sie pflegen. Denn bei rund 200 Feldern zu einem einzigen Artikel und 10 bis 12 Sichten auf diese Daten kann der Pflegeaufwand beträchtlich sein. Und in der Praxis sind solche Zahlen eher die Regel als die Ausnahme. Deshalb ist Datenqualität zuallererst ein Organisationsthema.

Dabei zeigt die Erfahrung, dass es sich lohnt, die Verantwortlichkeit bis auf Feldebene klar zu regeln. Denn nur so ist sicherzustellen, dass beim Auftreten von Fehlern gleich klar ist, wer ihre Behebung übernimmt. Genauso wichtig ist eine klare Verantwortlichkeit für den Lebenszyklus der Daten – ansonsten besteht die Gefahr, dass Daten gepflegt werden, die niemand mehr braucht. Daher hat sich die Einführung von drei Rollen als sinnvoll erwiesen, deren Aufgabenverteilung beispielsweise im Bereich Materialstamm so aussieht:

  • Der Daten-Steward hat die Objektverantwortung, überwacht den Lebenszyklus und verwaltet die Prüfregeln für seinen Bereich, zum Beispiel den Materialstamm.
  • Die Prozessmanager kümmern sich um die vertikale Prüfung der Daten entlang der Prozesse wie beispielsweise im Supply Chain Management (SCM) – auch über die Werksgrenzen hinweg. Gemeinsam mit anderen Prozessmanagern, etwa für Controlling oder Vertrieb, stimmen sie ab, ob eine neue Regel oder ein neues Feld die bestehenden Prozesse beeinträchtigt.
  • Die Daten-Pfleger unterstützen mit der Prüfung von Daten auf Feldebene in den Bereichen Einkauf oder Produktion beispielsweise den Prozessmanager für SCM. Bei Fehlern wird je nach Situation entweder korrigiert oder in Absprache mit dem Prozessmanager eine Regelanpassung formuliert.

Einheitliche Definitionen schaffen

Wann sind Daten eigentlich “gut”? Und wie können Unternehmen ihre Qualität messen? Grundsätzlich ist klar: Daten müssen vollständig sein. Das bedeutet, dass jeder Datensatz alle notwendigen Attribute enthalten muss. Aber was genau ist beispielsweise das Nettogewicht und was das Bruttogewicht eines Produktes?

PartnerZone

Effektive Meeting-und Kollaboration-Lösungen

Mitarbeiter sind heute mit Konnektivität, Mobilität und Video aufgewachsen oder vertraut. Sie nutzen die dazu erforderlichen Technologien privat und auch für die Arbeit bereits jetzt intensiv. Nun gilt es, diese Technologien und ihre Möglichkeiten in Unternehmen strategisch einzusetzen.

Auch die Kriterien der Konsistenz und der Aktualität lassen sich nur anhand klar definierter und dokumentierter Regeln überprüfen. Dabei wird vor allem in der Aktualitätsfrage schnell deutlich, dass die effiziente und effektive Pflege der Stammdaten einen kontinuierlichen Prozess erfordert. Denn die Halbwertszeit von Daten verkürzt sich mit den Produktlebenszyklen zusehends. In diesem Prozess sind neben den Daten selbst auch die Qualitätskriterien immer wieder zu überprüfen.

Sichtbare Ergebnisse bereitstellen

Eine systematische Prüfung der Datenqualität scheitert in vielen Firmen vor allem daran, dass die Qualität der Daten im Allgemeinen nicht sichtbar ist. Zwar ärgern sich Controller, wenn sie Überstunden machen müssen, weil Berichte aufgrund fehlender Daten nicht rechtzeitig fertig werden. Und wenn die Stückkosten zu hoch sind, weil das gleiche Teil von vier verschiedenen Abteilungen unter vier verschiedenen Artikelnummern bei vier verschiedenen Lieferanten in kleiner Stückzahl bestellt wird, sorgt das für Unmut bei der Geschäftsleitung.

Aber solange die Daten nicht systematisch untersucht werden, fällt der Zusammenhang nicht auf. Arbeitszeit und Geld werden weiterhin verschwendet und der Handlungsbedarf wird nicht erkannt. Diesen Teufelskreis zu durchbrechen, ist die zentrale Herausforderung des Datenqualitätsmanagements. Helfen kann dabei eine ganz einfache Visualisierung in Form eines Ampelsystems. Mithilfe von SAP-Query und Excel-Inplace lassen sich die vorhandenen Daten in einfache Listen exportieren, in denen jedes Datenfeld automatisch anhand der im System hinterlegten Qualitätskriterien bewertet wird.

Mehr zum Thema

Wie man gefährliche E-Mails identifiziert

Gefälschte E-Mails enthalten häufig Viren oder andere Angreifer. Oft sollen auch private und sensible Daten gestohlen werden. Anhand weniger Kriterien lassen sich gefährliche E-Mails jedoch schnell erkennen.

Je nachdem, ob die jeweiligen Regeln ganz, teilweise oder gar nicht erfüllt werden, erscheint das Feld grün, gelb oder rot hinterlegt. So ist auf den ersten Blick erkennbar, wie es um die Datenqualität insgesamt steht und wo konkreter Handlungsbedarf vorliegt. Ohne hohe Investitionen in teure Analysesoftware.

Kontinuierliche Verbesserung anpacken

Ein zentraler Vorteil des hier vorgestellten Verfahrens besteht darin, dass es automatisch in einen kontinuierlichen Prozess mündet. Denn die einmal angelegten Qualitätsregeln lassen sich jederzeit erneut mit wenigen Mausklicks auf den Datenbestand im SAP-System anwenden. Damit wird der größte Teil der Arbeit automatisch erledigt. Die Datenverantwortlichen in den Fachabteilungen können sich darauf konzentrieren, die Daten zu bearbeiten, bei denen Handlungsbedarf besteht. Dabei hat sich das Ampelsystem in der Praxis als äußerst wirkungsvolle Motivationshilfe erwiesen. Der Ehrgeiz der Mitarbeiter, „alles grün“ melden zu können, macht die vermeintlich lästige Pflicht zum sportlichen Wettkampf, bei dem letztlich alle gewinnen: Unternehmen, weil sie ihre Daten wirtschaftlicher nutzen, Mitarbeiter, weil sie ihre Aufgaben schneller und besser erledigen, und Kunden, die sich über weniger postalischen Spam und bessere Leistungen freuen.

Checkliste: Die sechs häufigsten Gründe für fehlende Datenqualität – und warum sie keine sind

Der Ausspruch “Garbage in, garbage out” stammt aus Zeiten, da Computer noch mit Lochkarten gefüttert wurden. Warum unternehmen die Entscheider dennoch nicht genug, um die Qualität ihrer Stammdaten im SAP-System zu verbessern? In der Praxis sind es immer wieder die gleichen Gründe.

  1. Das konkrete Ausmaß des Problems ist in den meisten Unternehmen nicht bekannt. Zumindest nicht an den entscheidenden Stellen. Das kann daran liegen, dass Verantwortliche kein Interesse daran haben, eigene Versäumnisse publik zu machen. Deshalb ist es wichtig, die Datenqualität in der IT- und Unternehmensstrategie zu verankern und alle Beteiligten in die Pflicht zur Umsetzung zu nehmen.
  2. Datenqualität ist nicht auf den ersten Blick sichtbar. Ob ein Datensatz oder auch nur ein Feld innerhalb eines Datensatzes den Qualitätsanforderungen entspricht, lässt sich nicht auf den ersten Blick erkennen. In den meisten Fällen schon deshalb nicht, weil es keine klaren Regeln für die Beurteilung der Datenqualität gibt. Basis jeder Qualifizierungsmaßnahme ist deshalb die Definition von Qualitätskriterien.
  3. Die Qualifizierung von Bestandsdaten ist aufwendig. Das Dilemma dabei: Je mehr Daten ein Unternehmen besitzt und je stärker diese untereinander verknüpft sind, desto höher ihr Wert, aber auch der Aufwand für ihre Qualifizierung. Nur mit einer möglichst weitgehenden Automatisierung lässt sich dieses Dilemma auflösen.
  4. Die Halbwertzeit von Unternehmensdaten nimmt ab. Kürzere Produktlebenszyklen und höhere Mobilität von Mitarbeitern oder Kunden sind nur zwei Ursachen dafür, dass Daten heute häufiger geändert werden müssen als noch vor fünf oder zehn Jahren. Entsprechend befristet ist auch der Nutzen von Qualifizierungsmaßnahmen. Vor diesem Hintergrund scheuen Unternehmen häufig den Aufwand für eine systematische Pflege ihrer Stammdaten. Dabei ist gerade eine kontinuierliche Pflege der Datenqualität erheblich effizienter und effektiver als sporadische Einzelprojekte zur Datenqualifizierung.
  5. Die (versteckten) Kosten mangelhafter Datenqualität werden nicht ausreichend berücksichtigt. Dass eine Werbeaussendung mehr kostet, wenn dreißig Prozent der Adressaten in der Datenbank mehrfach vorhanden sind, leuchtet grundsätzlich ein. Doch solange die konkreten Mehrkosten nicht berechnet werden, fehlt die Motivation, etwas zu tun. Das gilt umso mehr, wenn beispielsweise eine bestimmte, häufig verwendete Schraube unter mehreren verschiedenen Artikelnummern angelegt ist. Was es ein Unternehmen kostet, wenn es Aufträge verliert, weil nur ein dafür benötigtes Teil unter einer falschen Artikelnummer verbucht wurde und der Auftrag deshalb nicht rechtzeitig fertiggestellt werden konnte, lässt sich nur mit beträchtlichem Aufwand ermitteln. Wer hingegen solche Fälle durch die Verbesserung der Stammdatenqualität vermeidet, spart nicht nur die Kosten des Vorfalls, sondern macht auch seine Analyse überflüssig.
  6. Datenqualitätsmanagement gilt als “unsexy”. Während für die Beschaffung neuer Daten gern prestigeträchtige Projekte mit hohen Budgets und entsprechender Aufmerksamkeit gestartet werden, sind mit der Pflege der bereits vorhandenen Daten allenfalls Fleißkärtchen zu gewinnen. Bleibt die Frage: Ist “arm, aber sexy” für Unternehmen eine Option?
Redaktion

View Comments

  • Sehr guter Artikel. Genauso sieht es bei uns und vielen anderen mittelständischen Firmen aus: Die fertige Ware muss vom Hof, alles andere muss sich unterordnen. Die Fertigungsaufträge werden mit unvollständigen Artikelstammdaten und fehlenden Preisen zusammengebogen. Und danach nicht abgeschlossen, sondern es wird noch jede Menge garbage darauf gebucht , obwohl die Geräte schon Jahre beim Kunden stehen?!

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

2 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

2 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

23 Stunden ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

24 Stunden ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago