Das Szenario ist jedem IT-Manager bekannt: Einzelne Anwendungen arbeiten nebeneinander her und erzeugen Funktionen und Daten in doppelter und dreifacher Ausführung. Unterschiedliche Formate und Begrifflichkeiten unterbinden die Integration und fördern die Inkonsistenz. Die Entkopplung des logischen vom physischen Datenfluss bleibt genauso graue Theorie wie das unternehmensweite Data-Warehouse – es sei denn, ein Metadaten-Management schafft Ordnung.
Metadaten beschreiben Daten. Sie abstrahieren somit von der jeweiligen Anwendung. Damit verleihen sie den Daten in gewisser Weise Neutralität, so dass die Werte integrierbar und in anderen Zusammenhängen verwendbar sind. Metadaten geben den Daten einen Namen, halten fest, wo sie auftauchen, speichern ihre Bedeutung, geben Aufschluss über ihre Wichtigkeit für das Unternehmen und beschreiben die Abhängigkeiten von anderen Daten beziehungsweise ihre Einflüsse auf weitere Informationen.
Sie sind unentbehrlich, sie sind überall, sie sind aber auch teuer. Fehlendes Metadaten-Management im eigenen Betrieb begründeten die Befragten einer aktuellen Untersuchung der Unternehmensberatung Mummert Consulting so: Für 25 Prozent besteht dafür schlicht und einfach kein Bedarf, bei 25 Prozent gibt es keinen Projekt-Sponsor, und bei jeweils 19 Prozent sind mangelnde Ressourcen oder zu hohen Kosten schuld.
Bedeutung und Chaos wachsen
Dabei nimmt die Bedeutung von Metadaten zu, je dringlicher der Integrationsbedarf wird. Schlagworte wie Composite Applications, Shared und Web Services, Echtzeit-Analysen, Prozess-Orientierung und Performance-Monitoring deuten an, dass die Anwendungs- und Datenintegration immense Nachfrage generiert. Integration statt Neuentwicklung oder Ersatz wird von der Notwendigkeit getrieben, Kosten zu sparen und zugleich das Anwendungs-, Daten- und Tool-Chaos in den Griff zu bekommen. Nach Ansicht der Analysten des Marktforschungs- und Beratungsunternehmens Gartner verursachen allein die Redundanzen in der Datenhaltung rund 30 Prozent der gesamten IT-Kosten in den Unternehmen. Metadaten bilden die Voraussetzung für das automatisierte Zusammenspiel der IT-Komponenten.
So nimmt es kaum Wunder, dass Softwarehersteller unterschiedlichster Couleur Metadaten zu ihrem Themenfeld erklären. Alfred Chaung, CEO und Gründer von Bea Systems, ein Anbieter von Software für die Integration von Anwendungen (Enterprise Application Integration, EAI), sagte kürzlich: “Das Codieren von Anwendungen war gestern. Die Zukunft ist semantisch: Denn Metadaten erlauben ein Instrumentalisieren bestehender Komponenten.”
Informatica, Anbieter von Tools für das Extrahieren, Laden und Transformieren (ETL) von Daten zur Überführung in Data-Warehouses, stellte neulich sein Konzept für Universal Data Services (UDS) vor. Datenzentrische Dienste sollen nur einmal entwickelt werden, aber universell verteilbar und einsetzbar sein. Das funktioniert nur aufgrund von Metadaten. I2, Anbieter von Software für das Supply Chain Management (SCM) entwickelt ein so genanntes “Master Data Management”, mit dem sich Kunden-, Lieferanten- und Produktdaten über verschiedene IT-Systeme, Unternehmungen und Regionen synchronisieren lassen.
Ein Begriff und jeder versteht ihn anders
Die Beispiele zeigen aber auch, dass überall neue Metadaten entstehen, und damit ein neues Problem. Denn Metadaten selbst entstehen in Abhängigkeit von der jeweiligen Applikation und der Art der Daten, die diese generiert. Damit aber bedarf es ‘Übersetzungs- und Interpretationshilfen’. Auch ein standardisiertes Austauschformat wie die Extended Markup Language (XML) bietet keine Lösung. Denn dieses verpackt die Daten nur, klärt aber keinesfalls unterschiedliche Begriffsdefinitionen. EAI-Anbieter Tibco beispielsweise bietet deshalb mit ‘XML Canon’ ein Werkzeug an, das das Management und die Organisation von XML-Daten erleichtern soll.
Um die Beziehungen zwischen verschiedenen Definitionen zu verwalten, benötigen Anwender zumindest einen Katalog, ein ‘Metadata Dictionary’. Vor allem wenn es um fachliche Metadaten geht, ist hier noch hauptsächlich die Papierform im Einsatz. Diese Art der Metadaten hilft Endanwendern, indem etwa Leistungskennziffern wie Umsatz, Absatz, Preis und Marge definiert werden. Die Informationen dazu stecken zu 42 Prozent in den Köpfen der Mitarbeiter und nur zu 20 Prozent in elektronischen Dokumenten wie Geschäftsregeln und Kommentaren, besagt etwa die in der Zeitschrift ‘DM Review’ erschienene Untersuchung über “Meta Data & Knowledge Management – Meta Data Repository Myths”.
Im Gegensatz dazu dienen technische Metadaten der Unterstützung von Entwicklern. Sie werden in Tools erzeugt und von diesen benötigt. Zudem lassen sich noch einmal logische und physische Metadaten unterscheiden. Beispiele für diese Gattung sind Datentypen, Formate und Attribute.
Schlimmer als ein Sack Flöhe
In jedem Fall sind Aufbau und Pflege recht ermüdend. So ist es mittlerweile keine Seltenheit, dass Daten in Großunternehmen auf 1000 und mehr Datenbanken verteilt sein können. Andererseits gilt nach Ansicht des Gartner-Analysten Jeff Comport: “Die Qualität, die Zugänglichkeit und die Organisation gebündelter Metadaten haben einen direkten Einfluss auf die Implementationskosten einer Anwendung, ihrer Kompatibilität mit der restlichen DV-Architektur des Unternehmens sowie den Aufwand, der während des gesamten Lebenszyklus hineingesteckt werden muss.”
Auch Barbara Dinter und Andreas Kurz, Berater bei Mummert Consulting, legen das Gewicht auf die Pflege und Weiterentwicklung eines Metadaten-Managements. Die Unternehmen müssten es schaffen, einen entsprechenden Prozess zu implementieren, an dem die verschiedenen Stellen, die Metadaten generieren, beteiligt sind. “Das System muss leben”, betont Kurz. Eine Möglichkeit, Metadaten-Management zu institutionalisieren, besteht darin, Kompetenzzentren für die Datenintegration zu schaffen. Vor allem Hersteller aus dem Umfeld der Business Intelligence (BI) propagieren solche Maßnahmen.
Auch verschiedene Tools bieten Möglichkeiten der Professionalisierung. Zwar existieren bereits seit vielen Jahren Repositories, die den Austausch von Metadaten vor allem in Transaktionssystemen und deren Entwicklungsumgebungen unterstützen. Produkte wie ‘Platinum Repository’ von Computer Associates (CA), ‘Softlab Enabler’ von Fujitsu, ‘Urep’ von Unisys, ‘Rochade’ von der Allen Systems Group (ASG) und das Microsoft Repository gehören dazu. Sie warten heute jedoch zudem mit Features für das Data-Warehousing auf. Das Institut für Wirtschaftinformatik der Universität St. Gallen hat vor zirka fünf Jahren einen Kriterienkatalog für MDM-Werkzeuge erstellt.
Aktueller ist eine Reserach Note der Marktforscher von Gartner Research, die in diesem März veröffentlicht wurde und eine Repository-Produktbewertung enthält. Marktführer sind hier seit mehr als zehn Jahren die Unternehmen Allen Systems Group (ASG) und Computer Associates (CA). Ein Tool aus diesen Häusern schlägt mit 150.000 bis 1 Million Dollar zu Buche.
Zu den Visionären zählt Gartner Research den Anbieter Informatica mit ‘Super Glue’, Meta Matrix mit ‘Meta Base’ und Troux Technologies mit ‘Troux 4 Platforms’. Doch der Einzug von Service-orientierten Architekturen (SOA) in die Unternehmen lässt auch Chancen für Produkte, die die Analysten jetzt noch in einer Marktnische platzieren: ‘Foundation’ von Adaptive, ‘Save IT’ von Component Source, das ‘Metacenter’ der Data Advantage Group, ‘Enabler’ von Fujitsu, ‘Component Manager’ von Select Business Solutions und ‘Unicorn Systems’ von Unicorn.
Landkarte contra Modelle
Für Mummert-Berater Kurz ist die Vielfalt von Metadaten-Management-Tools allerdings ein Ärgernis, zumal es bisher keinen durchsetzungsfähigen Standard für ein Metadaten-Sprachformat gab und die Tools nicht einfach kombinierbar sind. Das XML-nahe Ressource Description Framework (RDF) hält er für geeignet, dieses Hindernis in Zukunft zu überwinden. Denn dieses Format ist offen.
Andererseits dürfe die Existenz von verschiedensten Werkzeugen und die diversen Entstehungsorte von Beschreibungsdaten kein Hindernis für ein umfassendes, konsolidiertes Metadaten-Management sein, so Kurz. Die Bildung von hierarchischen Modellen, wie vielfach in der Literatur zu finden, sei jedoch keine adäquate, praxisnahe Lösung, Metadaten zu ordnen und zu vereinheitlichen. Sie erinnerten viele DV-Verantwortliche an die vielerorts gescheiterten Versuche, unternehmensweite Datenmodelle zu entwickeln. Schließlich können auch Metadatenmodelle beliebig komplex werden.
Die Berater Kurz und Dinter empfehlen dagegen das hauseigene Modell, eine Metadaten-Landkarte. Diese geht von verschiedenen Metadatenebenen aus: der fachlichen, der logischen und der physischen Ebene. Die Metadaten lassen sich zudem orthogonal gemäß der Schichten einer typischen Data-Warehouse-Architektur (Operative Systeme, Data Warehouse und Data Marts) anordnen. Daraus ergibt sich eine Matrix. “Wenn die Verknüpfung der Metadaten über die verschiedenen Ebenen gelingt”, so Dinter, “erhalten Nutzer endlich brauchbare Informationen.” Wird etwa der Begriff “Umsatz” auf der fachlichen Ebene definiert, ergibt sich daraus, aus welchen Systemen er berechnet wird und wie die Informationen wo abgelegt werden müssen. Abhängigkeiten werden transparent, Entwicklungs- und Betriebskosten lassen sich senken.
In Deutschland hat das Zahlungsverhalten 2024 eine deutliche Entwicklung hin zu Sofortüberweisungen und Instant Payment…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…