Categories: SoftwareUnternehmen

Data Warehouse Projekte: Sehr teuer und oft unnötig

Es klingt wie ein Widerspruch: Das meist diskutierte Thema auf der ersten deutschen Konferenz von The Data Warehouse Institute (TDWI) war, ob Data-Warehousing nicht bald als eigenständiges Thema verschwindet. Immer mehr Business-Applikationen würden Funktionen dieser Technik integrieren.
Das TDWI ist eine in den USA gut etablierte Organisation, die vor allem der Weiterbildung von Führungskräften dient. Die rund 5000 zahlenden Mitglieder werden mit Zeitschriften und Kongressen über aktuelle Trends informiert. Anders als bei solchen Veranstaltungen üblich, hechelten hier nicht Hersteller im Stundentakt ihre mehr oder weniger werblichen Vorträge durch; vielmehr handelt es sich in aller Regel um halb- oder ganztägige Kurse, die in Technologie, Best Practices und Businessthemen gegliedert waren. Hinzu kamen Herstellerseminare.

Verblüffend war, dass Data-Warehousing insbesondere bei den drei Keynotes meist nur am Rande erwähnt wurde. So eröffnete Wayne Eckerson, Forschungsleiter des TDWI die Veranstaltung mit einer Rede über Balanced Scorecards und andere Metriken zur Erfassung und dem Management der Unternehmensleistung. Dabei setzte er allerdings die Existenz einer Data-Warehouse-Infrastruktur voraus, die nötig sei, um den Kreislauf von Strategie, Planung, Monitoring und Umsetzung bzw. Korrektur aufrecht zu erhalten.

Umfassende Konzepte sind schwierig

Explizit gegen das klassische Enterprise Data-Warehouse wandte sich Joachim Phillippi, Senior Executive Manager bei Mummert Consulting, in seinem Vortrag zum Reifegrad von Business Intelligence. Er konnte sich dabei auf eine Umfrage seines Unternehmens stützen, die allerdings den Schönheitsfehler aufweist, dass dabei fast ausschließlich umsatzstarke Dienstleistungsunternehmen wie insbesondere Banken und Versicherungen berücksichtigt wurden – sprich: die Kunden des Beratungshauses. Allerdings lassen sich die Ergebnisse zum Teil durchaus auch auf andere Branchen übertragen.

Zwar, so ein Ergebnis der Studie, geben knapp 80 Prozent der befragten Unternehmen an, ein Enterprise Data-Warehouse zu betreiben. Tatsächlich aber decken nur rund 40 Prozent mehr als drei Anwendungsbereiche damit ab, und kommen so dem grundsätzlichen Ziel wenigstens etwas näher, alle Unternehmensdaten im Data-Warehouse aufzubereiten.

Der Aufbau umfassender Data-Warehouses scheitert nicht an technischen, sondern an organisatorischen Problemen: Dem Aufbau eines unternehmensweiten Datenmodells und einem übergreifenden Metadaten-Management. Ersteres erfordert eine aufwändige Integration der vielen Dateninseln im Unternehmen und bleibt zudem in einer Zeit der Fusionen ein ‘Moving Target’. Rasch sind hier die Grenzen der Wirtschaftlichkeit erreicht.

Hochsensibel ist das Management von Metadaten. Relativ unproblematisch, wenn auch technisch durchaus anspruchsvoll ist der Bereich, in dem es um Dokumentation der Datenhistorie geht. Für Dauerstreit sorgt aber die semantische Ebene. Hier muss unternehmensweit geklärt werden, was genau die Begriffe Umsatz, Arbeitstag, Kunde etc. bedeuten. Das ist keineswegs trivial. Bei Unternehmen mit Schichtbetrieb ist beispielsweise zu klären, ob die Nachtschicht zum vorherigen oder folgenden Tag gehört. Im Management, das sich am geschäftlichen Erfolg misst, ist es selbst üblich, sich die Daten aus dem System von Hand, sprich mit Tabellenkalkulationsprogramm, so lange zu “überprüfen und nachzurechnen” bis sie ins eigene Bild passen. Das Ergebnis sind langwierige Sitzungen, bei denen das Management darüber diskutiert, wessen Zahlen die zuverlässigsten sein mögen.

Sponsoren gesucht

Daher ist für konsequentes Data-Warehousing eiserner Durchsetzungswille beim Topmanagement unabdingbare Voraussetzung. Aufgrund der evidenten Vorteile bei der Unterstützung strategischer Entscheidungen findet sich zwar leicht ein so genannter ‘Sponsor’ im Vorstand, der die damit verbundenen Aufgaben jedoch häufig – etwa aus technischem Desinteresse – an untergeordnete Stellen delegiert.

Besonders heftig in der Kritik lagen auf der TDWI-Veranstaltung Trends wie Active- oder Realtime-Warehousing. Die von der Gartner-Group schon 2002 ausgerufene Ära der Echtzeit-Unternehmen ist bislang vor allem deshalb ausgeblieben, weil in den meisten Unternehmen die Prozesse dafür nicht ausgelegt sind. Solche Systeme setzen voraus, dass wie bei Dell oder Wall-Mart DV-technische Ereignisse automatische Aktionen wie etwa Bestellungen auslösen. Tatsächlich misstrauen die Unternehmen solchen Automatismen und legen großen Wert darauf, dass eine Kaufentscheidung vom zuständigen Manager getroffen wird. Damit verflüchtigen sich jedoch sowohl Zeit- wie auch Personalersparnis.

Zusammenfassen lassen sich die Argumente gegen aufwändige Data-Warehouse-Projekte mit dem Urteil: zu teuer und oft unnötig. Ganz anderer Meinung ist hier naturgemäß Stephen Brobst, Cheftechnologe beim Warehousing-Spezialisten Teradata, dessen meist mehrere Millionen Euro teure Produkte sich in der Regel nur Großunternehmen leisten können. Brobst erinnert an Konzerne wie Wall-Mart, Dell oder Vodafone: “Marktführer in fast jeder Branche setzen unternehmensweite Data-Warehouses ein, gerade um sich zu Echtzeit-Unternehmen entwickeln zu können.” Brobst hat in München einen gut besuchten Vortrag über Echtzeit-Data-Warehousing gehalten. Er unterstellt, dass diejenigen, die verteilte Data-Marts propagieren, nur von ihren Skalierungsproblemen ablenken wollen.

Dieses Argument ist nicht von der Hand zu weisen. Tatsächlich spielen außer IBM und Oracle die meisten Anbieter, was Skalierbarkeit und Vollständigkeit der Funktionen anbelangt, nicht in derselben Klasse wie Teradatas gewaltige Datenbankmaschinen. Als Mitbewerber wird nur die IBM und vielleicht noch Oracle anerkannt. Selbst namhafte Business-Intelligence-Anbieter wie Cognos und Business Objects gelten lediglich als Partner für Frontend-Tools. Allerdings bieten seit kurzem Sand Technology und Datenbanker Sybase ein performantes und hochskalierbares Verfahren an, das Datenbanken auf Spaltenebene ausliest. Auf diese Weise, so Sybase, könne man locker mit Teradata mithalten.

Doch Skalierbarkeit auf dieser Ebene ist für die große Masse der Unternehmen eher ein nachrangiges Problem. Sie ringen vor allem darum, ihre Daten möglichst kostengünstig zu integrieren. Außerdem, so Christopher Hackett, Informatica-Geschäftsführer für Zentraleuropa, bilde ein zentrales Data-Warehouse einen ‘Single Point of Failure’. Seiner Meinung nach falle daher die Entscheidung für dezentrale Marts nicht nur wegen der Kosten, sondern meist aus Sicherheitsgründen.

Applikationen statt Warehousing

Dass sich Teradata seiner herausgehobenen Position nicht mehr so sicher ist, zeigt die kürzlich beschlossen Kooperation mit der SAP. In diesem Rahmen wird Teradata seine Data-Warehousing-Software und Analyseprodukte für SAPs Integrationsplattform ‘Netweaver’ aufbereiten. Das so entsehende Produkt soll zunächst Kunden angeboten werden, die Lösungen beider Hersteller im Einsatz haben. In jüngster Zeit hat sich SAP Business Warehouse (SAP BW) zunehmend zu einem Konkurrenzprodukt im Bereich großer Datenmengen entwickelt. Die Anwender können nur schwer einsehen, warum sie neben der teuren SAP-Software noch zusätzlich ähnlich hohe Investitionen für ein Data-Warehouse auf sich nehmen sollen, wenn sie einen Teil dieser Funktionen für einen geringeren Aufpreis freischalten können.

Hinzu kommt, dass die Daten für Business Intelligence zunehmend aus den Applikationen aus den Geschäftsprozessen kommen. Im Gegensatz zur Studie von Mummert sieht IDS-Gründer und Prozess-Papst August Wilhelm Scheer einen verstärkten Bedarf nach Echtzeit-Daten. Nach seiner Ansicht wird es höchste Zeit, dass Geschäftsprozesse ähnlich zeitnah und informationsreich gesteuert werden, wie das bei der Fertigung längst der Fall ist. Das führt laut Scheer dazu, dass Data-Warehousing als eigenständige Technik obsolet werden könnte. Er sieht voraus, dass es ähnlich in der Anwendungsarchitektur der Unternehmen aufgeht wie es bei den Workflow-Produkten geschehen ist.

Die kleineren Anbieter reagieren auf ihre Weise auf solche Perspektiven. So ist ein Konsolidierungstrend zu beobachten, der allerdings auch durch Microsofts Ankündigung verschuldet ist, mit eigenen Produkten wie der Yukon-Version ihres Datenbanksystems ernsthaft in das Geschäft mit Business Intelligence (BI) einzusteigen. Die Reporting-Spezialisten Brio und Crystal Decisions etwa sind in der Folge bei Hyperion beziehungsweise Business Objects untergekommen. Cognos hat sein relativ breites Spektrum um die Planungswerkzeuge von Adaytum ergänzt und Informatica, ein Spezialist für Datenextraktion, unterstreicht durch seine Kooperation mit dem EAI-Unternehmen Web Methods seine Positionierung als Datenintegrator. Dabei wird Data-Warehousing zunehmend zu einem Zielsystem unter anderen. Das Anwendungsspektrum reicht von Konsolidierung, Synchronisierung und Replikation von Daten bis hin zur Unterstützung von Business Activity Monitoring.

Die Suche nach neuen Geschäftsfeldern ist ebenfalls eine Reaktion auf die von Scheer aufgezeichnete Tendenz hin zur Analyse von Applikations- und Prozessdaten. Selbst eine klassische Data-Warhouse-Disziplin wie das Säubern von Daten (Cleansing) wird immer mehr eine Funktion für Applikationen. “Wenn die Daten in einem Siebel-System nicht gut sind, dann ist das ganze CRM-System Geldverschwendung”, urteilt Mark Heijkers, Trilliums Business Development Manager EMEA. In Europa, so Heijkers, sei CRM definitiv die wichtigste Triebkraft für das Geschäft mit Datenqualität. Das liege auch daran, dass die betroffenen Geschäftsbereiche direkten Kundenkontakt hätten und die Folgen etwa von fehlerhaften Mailing-Aktionen direkt zu spüren bekämen. In Deutschland komme noch die Bereinigung der Daten in SAP-Systemen hinzu. Andere wichtige Gründe zur Verbesserung der Daten- und Informationsqualität hätten ebenfalls – wenn überhaupt – nur mittelbar mit Data-Warehousing zu tun. Dazu gehören die Regeln für das Berichtswesen nach Basel 2 oder dem Sarbanes-Oxley Act.

Silicon-Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

4 Stunden ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

8 Stunden ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

2 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

3 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

4 Tagen ago