Categories: NetzwerkeUnternehmen

Master Data Management macht dem Business Beine

Das machen heute schon recht erfolgreich der amerikanische Schokoladen-Hersteller Hershey und der Chipkonzern Intel. Hier haben sich IT und Management die Frage gestellt, wie die Firma ihre Produkte in der ausreichenden Anzahl vorhalten kann, ohne zuviel Geld und Arbeit in die Lagerung zu stecken.

“Produkte nicht oder nicht ausreichend vorzuhalten, führt zu Frustration bei den Kunden und Imageverlust für die Firma – wer die Bedarfskette allerdings tatsächlich am Echtzeit-Bedarf ausrichten kann, gewinnt Loyalität, macht mehr Profit und unterscheidet sich wesentlich vom Wettbewerb. Einige gemischte Erfahrungen mit unserer Supply Chain in der Vergangenheit brachten uns auf diese Spur und ließen uns die ersten Schritte in Richtung eines Nachfrage-orientierten Supply Network machen,” sagte George Spanos, Director of IT, Logistics and Sales Systems bei The Hershey Company, anlässlich einer Teradata-Kundenkonferenz.

Dieses Demand Driven Supply Network (DDSN) ermöglicht der 1876 gegründeten Firma, auf sich verändernde Kundenwünsche schnell zu reagieren. “Wir haben die Sache einfach umgedreht: Früher bestimmten unsere Produktionszyklen und Pläne die Produktion, jetzt können wir mit Unterstützung der Systeme, wie sie beispielsweise Teradata anbietet, die Kundenwünsche tatsächlich als treibende Kraft und Schlüsselfaktor für jeden Aspekt unseres Geschäftes einsetzen und sind so näher an der Realität”, sagte Spanos. Dabei kommen außer der Datenbank des US-Herstellers auch die Lösungen und Systeme ‘Manufacturing Logical Data Model’, ‘Supply Chain Accelerator for SAP’ und ‘Demand Chain Management’ von Teradata zum Einsatz.

Etwas ganz ähnliches, übersetzt in die IT-Branche, wendet Intel an. Hier wurde die Effizienz des Bedarfsnetzes in Schwung gebracht. Wie Mark Boucher, Supply Network Architect von Intel, auf derselben Veranstaltung ausführte, sei diese Frage geschäftskritisch geworden. Schliesslich ist der Chipmarkt sehr ausgereift und die Hersteller zählbar. “Im Zentrum unserer Überlegungen stand, mit welchen Mitteln wir unserer Idee von einer entscheidend effektiveren Bedarfskette beikommen können – die einzige Antwort, die Sinn machte, lautete: durch Master Data Management”, sagte Boucher.

Basierend auf Intels eigenen, internen Geschäftslogikmodellen wurde ein einheitliches Plandatenmodell errichtet. Dazu kam ein Single Repository für alle Planungs-, Ablauf- und Verzeichnisdaten. Integrierte Flexibilität innerhalb des umfangreichen Meta oder Master Data Framework sorgte für die Chance, temporäre oder permanente Datenerstellung zu erlauben. Dabei wurden die Systeme sowohl für die Upstream- als auch die Downstream-Daten neu designt und konsolidiert.

Die Herausforderungen bestanden darin, das Inventar und die Nachfrage zu verstehen. Verpasste Profitchancen und aufwändige Nacharbeit, um entstandene Zeitfenster wieder zu schliessen, sowie inflationär steigende Systemkosten durch Buffertime und mangelnde Datenkenntnis – das alles musste schnell und dauerhaft abgestellt werden. “Die schlechte Kenntnis unserer Informationen und Prozessketten führte zu ständig auftretenden Problemen mit der Datenqualität, unsere Geschäftsregeln waren inkonsistent und Prozessübergänge wurden durch wertlose Zusatztätigkeiten wie Datenwiederherstellung und manuelle Datenarbeiten blockiert”, sagte er.

Erst mit dem Einsatz von Lösungen, die die Metadatenarbeit flexibel machen, soll sich alles zum Besseren gewendet haben. Eine Standardsoftware sorgt jetzt für Überblick. Der Konzern kann anhand von Performance Scorecards die treibenden und blockierenden Faktoren erkennen und bearbeiten. Dabei ist die Kontrolle direkt in das Enterprise Data Warehouse Layer eingebaut und interagiert mit allen Daten, die hier verabeitet wurden. Das hat laut Boucher zu einer Bedarfskette geführt, die “den Namen auch verdient”, wie er sagte. Doch ein gutes Master Data Management allein ist nicht alles, warnte er. “Wer die Daten nicht ab initio konsistent und relevant hält, die Rolle der Geschäftsprozesse unterschätzt und kein Team von Governance-Spezialisten etabliert, die die Datenströme im Griff behalten, der wird kostspielige Fehler machen.”

Silicon-Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

8 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

8 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

1 Tag ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

1 Tag ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago