Daten so aufzubereiten, dass sie überhaupt als Entscheidungsgrundlage taugen, gehört zu den ältesten, zugleich aktuellsten und vor allem teuersten Problemen der DV. Jetzt hat Hersteller Informatica ein neues Lösungskonzept vorgestellt: Universal Data Services (UDS).
Das Einsparpotenzial ist beeindruckend. Trotzdem interessieren Tools, die Daten hin- und herschaufeln, zumeist nur einen sehr eingeschränkten Kreis von IT-Experten. Es gibt auch nur ein paar Hersteller, die solche anbieten. Informatica und Hauptkonkurrent Ascential Software gehören dazu. Kern ihres Produktangebots sind Software-Tools, die die Extraktion, Transformation und das Laden von Daten, kurz ETL, übernehmen.
Doch bei Kunden, die Produkte dieser Hersteller einsetzen, sind Einsparungen in Höhe von 10 bis 12 Millionen Euro pro Jahr keine Seltenheit. Die Versicherung Prudential etwa nutzt ein Informatica-Werkzeug um Daten von mehr als 8 Millionen Kunden über Nacht aus einem Legacy-System auf dem Mainframe in ein umfassenderes Kunden-Service-Programm zu laden. Der Return on Investment, mit dem das Unternehmen rechnet, beträgt jährlich zwischen 12 und 20 Millionen Dollar bei einem Berechnungszeitraum von fünf bis sechs Jahren.
Datendistribution in der Black-Box
Damit Daten, die etwa in einem ERP-System generiert werden, von einer anderen Anwendung, etwa einem CRM-System (Customer Relationship Management) oder von Business-Intelligence-Tools verstanden werden können, müssen sie gezielt aus diesem herausgezogen und in ein für andere Anwendungen verständliches Format umgewandelt werden. Vor allem, wenn die Daten aus verschiedenen Vorsystemen stammen, miteinander kombiniert werden müssen und unterschiedliche Anwendungen diese weiterverarbeiten, kommen Anwenderunternehmen mit selbst geschrieben Routinen kaum weiter. Denn diese sind zumeist entstanden, um einen speziellen Datentransfer zu ermöglichen. Für jede Applikation gibt es dann solche Helferlein.
Vor allem Lösungen zur Pflege und Entwicklung von Kundenbeziehungen (CRM), haben jedoch gezeigt, welchen immensen Nutzen die Integration verschiedener Vorsysteme haben kann – aber auch welche schlimmen Folgen, wenn diese Integration nicht klappt. Inzwischen macht die Abkehr von Funktionsbereichen hin zur Prozessorientierung Karriere. Prozesse aber werden unausweichlich durch einen Informationsfluss begleitet. Informationen müssen möglichst automatisch dort auftauchen, wo sie gebraucht werden.
Unterstützt wird ein solcher Informationsprozess durch Tools für Enterprise Application Integration (EAI), durch Integrations-Broker und -Server sowie durch den Enterprise Service Bus (ESB). Applikationen können dank Applikationsserver direkt miteinander kommunizieren. Aus der Kombination von bestehenden Anwendungen und Anwendungsteilen entstehen neue, so genannte ‘Composite Applications’. Das Problem: Alle diese Begriffe scheinen irgendwie dasselbe zu meinen, aber auf unterschiedlichen Wegen zu lösen. Dazu kommen funktionale Überschneidungen und Lücken.
Nun spricht Gaurav Dhillon, CEO von Informatica, auch noch davon, mit Universal Data Services ein Produkt auf den Markt bringen zu wollen, das eine Art Applikationsserver im Daten-Management sein soll. Es entstehe ein “neues Paradigma für die Sammlung, die Integration, die Überprüfung und die Interaktion von Unternehmensdaten”.
Daten-Server plus Services
Im Zentrum der Architektur befindet sich ein Daten-Server, der Basisdienste für die Dateninteraktion bereitstellt. Dazu zählen die Darstellung der Leistungsdaten auf Unternehmensebene, Skalierbarkeit, Verfügbarkeit, Metadaten-Management, Optimierung, Sicherheit, Zeitplanung und Ablaufdefinition. Das sind in der Regel Funktionen und Dienste, die nur einmal konfiguriert werden müssen. Deshalb lassen sie sich auf einem Server zusammenführen und vergleichsweise kosteneffektiv warten. Dazu sollen Datendienste gehören, die einfach zu implementieren sein sollen sowie zunehmend intelligent und verteilt.
Nach Darstellung des Herstellers existieren einige wesentliche dieser Dienste bereits in der Datenintegrations-Lösung ‘Power Center’, der Business-Intelligence-Lösung ‘Power Analyzer’ und dem Metadaten-Management ‘Super Glue’. Erst in Ansätzen vorhanden ist dagegen das Management von Integrationsprozessen auf einer höheren Ebene. Die Technik, die solcherlei automatisierte Dienstleitungen ermöglichen soll, findet Informatica im Umfeld von Web-Services.
Zum Beispiel will Informatica einen Integrations-Entwicklungsdienst für freie Entwickler anbieten. Dieser nutzt dann das Metadaten-basierte Wissen über Dateninhalte sowie Ort und Beziehung innerhalb des Daten-Servers, so dass er für die Entwickler die Daten und den Weg dahin aufspüren kann. Jemand, der eine digitale Schalttafel für das Risikomanagement im Unternehmen entwickelt, könnte auf diese Weise bei der Zufütterung mit Fremddaten von Börse, Finanzanalysten und Konkurrenzbetrachtungen unterstützt werden.
Geplant ist außerdem ein Optimierer. Dafür müssen die bislang in sehr engem Rahmen genutzten Optimierungsfunktionen für die Anwendung auf den gesamten Integrationsprozess erweitert werden. Der Dienst würde dann über das Wo, Wie und Was der Datenverarbeitung entscheiden können.
Dazu kommt, dass Funktionen wie die Synchronisation von Daten, die bisher tief in den Informatica-Produkten verborgen waren, als Web-Service zur Verfügung gestellt werden. Diese Shared Services bilden einerseits eine Art Klammer um die jetzigen Informatica-Produkte. Andererseits erlaubt diese Art der Dienste-Organisation, dass ein und dieselbe Funktionalität von verschiedenen Anwendungen genutzt werden. Denn noch immer beklagen die Anwender, ein und dieselbe Funktion an verschiedenen Stellen vorhalten zu müssen, was den Overhead und die Komplexität unnötiger Weise erhöht.
Das Grid im Tool
Harriet Fryman, als Group Director Product Marketing zuständig für Power Center, erläutert, dass die aktuelle Version 7.1, die seit November verfügbar ist, bereits Webservice-Funktionalität besitzt. Der Vorteil dieses Angebots liege in der losen Kopplung von Funktionalität, der Nachteil im Performance-Verlust. “Wenn ich jetzt die Wahl hätte zwischen Webservice und klassischem Application Programming Interface (API), nähme ich die herkömmliche Implementierung”, sagt sie.
Allerdings werde sich dieser Nachteil mit der Zeit verflüchtigen. Das Tool soll arbeiten wie ein Grid. Dazu ein Beispiel: Schon heute sei es möglich, dass Power Center auf unterschiedlichen Maschinen verteilt ist. Auch große Datenmengen bewältige das Werkzeug. Fryman spricht von Gigabytes pro Stunde. Den tatsächlichen Flaschenhals bilde die Datenextraktion aus den Transaktionssystemen. Denn diese lasteten die Maschinen, auf denen sie laufen, ohnehin aus. Mit Hilfe des Werkzeugs Power Exchange lässt sich jedoch das Dateneinsammeln von der Datenintegration trennen, die Systeme werden entlastet. Bisher stehe diese Funktion nur eingeschränkt zur Verfügung, erläutert Fryman. Künftig aber gebe es dank Services generell einen Split zwischen Batch-, Change- und Real-Time-Prozessen, die sich je nach Bedarf kombinieren, beziehungsweise lose koppeln ließen.
Tatsächlich scheinen Kunden wie Informatica-Mitarbeiter die Vorteile dieser internen Organisation innerhalb der Tools schnell zu erfassen und willkommen zu heißen. Das zeigten etwa Gespräche und Diskussionen auf der europäischen Benutzerkonferenz Informatica World, die kürzlich in Edinburgh stattfand. Was UDS darüber hinaus bedeuten soll, scheint jedoch weitaus weniger eingängig.
Weder Fisch noch Fleisch
CEO Dhillon siedelt sein UDS-Konzept zwischen Composite Applications und Performance Management an, wohlgemerkt als Ergänzung, nicht in Konkurrenz. Während zu Composite Applications eine Entwicklung führt, die bei der Transaktionsverarbeitung (OLTP) anfängt und über ERP und EAI führt, setzt das Performance Management auf dem Online Analytical Processing (Olap), Business Intelligence (BI), analytischen Applikationen und dem Business Process Management (BPM) auf. UDS aber kommt aus der Tradition des Data-Warehousing, ETL, Distributed Warehousing und der Datenintegration.
So klinge zwar vieles ähnlich wie Produktbeschreibungen von BPM und EAI, räumt Dhillon ein, doch werde sich Informatica weder zu einem EAI- noch zu einem BPM-Anbieter entwickeln. Dennoch steckt der Informatica-Chef in Erklärungsnöten. Im Grenzbereich zum Performance-Management bietet Informatica ein ‘Dashboard’, also eine BI-Anwendung, die wichtige Entwicklungen im Unternehmen visualisert. Die Möglichkeit Abfragen zu splitten und in richtiger, sinnvollen Weise zu einer Information wieder zusammenzufügen, reicht in die EAI-Domaine.
Doch auch von beiden anderen Seiten bewegen sich Anbieter auf die Informatica und Ascential-Ecke zu. EAI-Anbieter Tibco beispielsweise hat Firmen übernommen, mit denen sich Analysen von operativen Daten durchführen lassen, um Event-gesteuert Management-Maßnahmen anstoßen zu können, etwa um die Suche nach den Uraschen zu unterstützen, wenn innerhalb einer Lieferkette zu wenig Ware ankommt. Außerdem stockt der Hersteller gerade seine BPM-Funktionen durch den Zukauf von Staffware auf.
ERP-Anbieter wie SAP und Oracle dagegen bieten längst neben ihren Anwendungen IT-Infrastrukturprodukte an, unter anderem Applikationsserver. Supply-Chain-Management-Spezialist i2 kam jüngst mit einem Masterdaten-Management (MDM) daher.
Woolworth baut einen Daten-Hub
Auch Kunden scheinen einen Wettbewerb zwischen den verschiedenen Daten-Management-Konzepten zu sehen, vor allem EAI contra ETL. Beispielsweise Hartwig Hopfenzitz, DV-Leiter und Vorstandsmitglied der Deutschen Woolworth, berichtete auf der Informatica-Benutzerkonferenz davon, die Konzepte gegeneinander abgewogen zu haben. Die Ladenkette mit 335 Geschäften in Deutschland und Österreich, einem Umsatz von mehr als 100 Millionen Euro und 300 Millionen verkauften Produkten pro Jahr, möchte bis 2010 eine RPG-Eigenentwicklung realisieren, die auf einer AS/400 läuft, im Bereich Materialverwaltung ersetzen.
Zudem hat sich der CIO für einen Best-of-breed-Ansatz entschieden und gegen eine allumfassende ERP-Lösung. So sollen sukzessive Teile des Material-Managements durch neue ersetzt werden. Für das Daten-Management soll es eine Art Daten-Hub geben, der die bisherigen Punkt-zu-Punkt-Verbindungen ablöst. Darüber kommunizieren werden etwa die Supply-Chain-Managment-Lösung von i2, die Materialverwaltung, sowie SAP- und Loga-Anwendungen.
“Sowohl EAI- als auch ETL-Lösungen genügen unseren Ansprüchen”, erläutert Hofenzitz. Konkret standen im Frühjahr 2003 IBMs Websphere Business Integration und Power Center zur Debatte. Zur ROI-Berechnung nahm das Evaluationsteam IBMs Kalkulations-Tool zur Hilfe. Bei einer Hochrechnung auf drei Jahre liegen die Gesamtkosten gleich hoch. Das Informatica-Werkzeug erfordert höhere Lizenz- und Trainingsgebühren, die IBM-Lösung verursacht höhere Projektkosten. Außerdem zeigen die Ergebnisse, dass das EAI-Tool kleine Vorteile im Metadaten-Management aufweist, das ETL-Tool sich dagegen besser für die Massendatenverarbeitung eignet. EAI schien dem Unternehmen überdimensioniert und ETL schnitt bei den Antwortzeiten im Millisekundenbereich schlechter ab. Schließlich entschied sich Woolworth für eine ETL-Lösung, weil die Mitarbeiter bereits damit vertraut waren und EAI als zu große Änderung erschien.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.