Categories: Data

Erfolgreiche Prognosen – ein IT und Business Joint Venture

Da exakte Prognosen einen Wettbewerbsvorteil schaffen, wurde bereits früh versucht, diese mit Hilfe von Software zu erstellen. Seitdem IBM in den 70er-Jahren den Markt für Business Intelligence etabliert hat, ist viel passiert. Im Laufe der Jahre pendelte die Zuständigkeit für die Systeme zwischen IT und Business hin-und-her. Mit Big Data und IoT kommt das Pendel nun in der Mitte zum Stehen.

Dominik Claßen, der Autor dieses Gastbeitrags für silicon.de, ist Director of Sales Engineering EMEA & APAC bei Hitachi Vantara (Bild: Hitachi Vantara)

In seinem Buch “Do Lunch or Be Lunch” schrieb Howard H. Stevenson, Fakultätsmitglied der Harvard Business School, dass Geschäftsprognosen ebenso wichtig wie schwierig seien. Auch wenn das Buch schon ein wenig älter ist, trennt die Fähigkeit, genaue Vorhersagen zu treffen, noch immer die erfolgreichen Unternehmen von denen, die unter “ferner liefen” das Rennen beenden.

Der Hunger nach Lösungen zur Unterstützung genauer Vorhersagen hat, seitdem IBM in den 70er-Jahren den Markt für Business Intelligence etabliert hat, die Nachfrage vorangetrieben. Wer lange genug in dieser Branche gearbeitet hat, konnte miterleben, wie Kaufentscheidung und Projektverantwortung zwischen IT und Business hin- und herpendelten. Jahrzehntelang beharrten die IT-Abteilungen darauf, dass die Systeme bei ihnen anzusiedeln seien, damit strikte Governance gewährleistet wird, Sicherheitseinbußen gering gehalten und richtige Entscheidungen getroffen werden können. Die Einwände von Seiten der Geschäftsabteilungen, dass diese Rigorosität keinen Sinn macht, wenn die gewonnenen Erkenntnisse zu spät kommen, um rechtzeitig Entscheidungen zu treffen, verhallten ungehört.

Von BI 2.0 zu Big Data

Bis Anfang der 2000er-Jahre, nach etlichen teuren, gescheiterten Implementierungen, das Pendel zugunsten des Business ausschlug: Unter dem Stichwort “BI 2.0” lud ein neuer Typus visueller, branchenspezifischer, oft cloudbasierter Tools den Geschäftsanwender dazu ein, die IT-Abteilung gleich ganz zu umgehen. Doch diese neuen Lösungen konnten den Hunger nach Vorhersagen nicht wirklich stillen. Obwohl diese Tools wesentlich einfacher zu bedienen waren, konnten nicht genug Daten herangezogen werden, um kontinuierlich zuverlässige und genaue Vorhersagen zu treffen.

Bestenfalls ermöglichten sie einen visuell ansprechenden Blick in den Rückspiegel. Doch da die IT-Abteilungen umgangen wurden, basierten diese Rückblicke oftmals auf unzuverlässigen und fehlerhaften Daten.

2010 schließlich wirbelten Big Data dank Apache Hadoop den Markt durcheinander. Mit Big Data und den sinkenden Rechner- und Speicherkosten rückten zuverlässige prognostische Analysen zum ersten Mal in Reichweite. Jetzt wurde es möglich, ein ganzes Universum an diversen unstrukturierten, qualitativen Daten aus Dokumenten, Clickstreams und Maschinensensoren zu nutzen.

Obwohl die Geschäftsanwender die neu gewonnene Kontrolle über die BI-Systeme nur ungern aufgeben wollten, brauchten sie nun die Unterstützung durch die IT-Abteilung (inklusive Data Scientists, Daten-Ingenieuren und Daten-Analysten), um diese komplexen Systeme zu entwickeln, zu bauen und daraus Werte zu schöpfen. Die Erkenntnis, dass ohne Datenbereinigung und Governance diese leistungsfähigen Business-Analysen und IoT-Systeme allenfalls unzuverlässige oder schlimmer noch riskante Ergebnisse liefern, wurde von allen Seiten akzeptiert.

Von BI-Branchenlösungen zu eingebetteten Analyseplattformen

Endlich kam das Pendel in der Mitte zum Stehen. IT und Business kommen zusammen, um einen neuen Markt gemeinsam zu gestalten, bei dem einfache Bedienbarkeit, schnelle Analysen und Vorhersagen für den Geschäftsanwender auf einem robusten Fundament aus Datenbereinigung, Datennachvollziehbarkeit, Governance und Sicherheitsanforderungen aufbauen. Mit diesem Wandel von BI 2.0 hin zu Big-Data-Analysen hat sich auch die Sichtweise der Geschäftsanwender geändert: Während früher Branchenlösungen und visuelle Attraktivität im Mittelpunkt standen, werden nun Datenintegrität und Zuverlässigkeit als wichtiger angesehen.

Ausgewähltes Whitepaper

Report: State of Digital Transformation EMEA 2019

Zu den größten Hürden der digitalen Transformation zählen der mobile Zugriff auf Unternehmensdaten und Anwendungen, die Nutzung unsicherer Netzwerke und nicht verwalteter Geräte. Das geht aus dem Report „State of Digital Transformation EMEA 2019“ von Zscaler hervor. Jetzt den vollständigen Report herunterladen!

In diesem Zusammenhang ist ein Trend weg von alleinstehenden Datenvisualisierungs-Lösungen hin zu unternehmensweit eingebetteten Plattformen zu beobachten, die Analysen als Teil der täglichen Geschäftsanwendungen zur Verfügung stellen. Ein gutes Beispiel ist das europäische Teilchenforschungszentrum CERN, das Analysen eingebettet hat und seinen rund 15.000 Nutzern in ihren täglichen Anwendungen wie ERP, Finance, HR oder anderen Systemen zur Verfügung stellt.

Aussagekräftige Einblicke durch verknüpfte Datensätze

Ein Feld, auf dem IT und Business zusammenarbeiten, ist die Gewinnung aussagekräftiger Einblicke durch die Verknüpfung von Datensätzen. Bei IoT-Anwendungsfällen reicht es nicht aus, nur Sensordaten zu analysieren. Echte Erkenntnisse ergeben sich nur dann, wenn diese oder andere von Maschinen generierten Daten mit Daten aus Unternehmensanwendungen oder aus sozialen Netzwerken verknüpft werden.

Ausgewähltes Webinar

Praxisleitfaden für den Schutz von Unternehmen vor Ransomware

Helge Husemann, Product Marketing Manager EMEA von Malwarebytes, stellt in diesem 60-minütigen Webinar (Aufzeichnung) die neue Sicherheitslösung Malwarebytes Endpoint Protection vor. Sie enthält ein mehrstufiges Sicherheitskonzept und bietet damit einen effektiven Schutz vor modernen Bedrohungen wie WannaCry, Petya und anderen.

Die Fähigkeit, aus miteinander verknüpften Datensätzen Vorhersagen zu erstellen, lässt sich besonders an dem überaus wichtigen Anwendungsfall Cyber-Security aufzeigen. So ist zum Beispiel BT Assure Cyber in der Lage, Event- und Telemetrie-Daten aus einer Vielzahl von Datenquellen zu analysieren, inklusive Geschäftssystemen, traditionellen Sicherheitssystemen und modernen Detection Tools, und ermöglicht damit seinen Kunden in kürzester Zeit weitreichende Einblicke in mögliche Schwachstellen und Risiken.

Geschwindigkeit steht nicht zur Verhandlung

Eine Sache, die Unternehmen niemals zur Disposition stellen, ist Geschwindigkeit. Es macht keinen Sinn, perfekte Daten zu haben, wenn die sich daraus ergebenden Erkenntnise so spät kommen, dass die Unternehmen nicht mehr darauf reagieren können. Glücklicherweise baut Big Data auf Open Source auf, und das gesamte Hadoop-Umfeld sowie eine globale Entwickler-Community arbeiten daran, schwierige Probleme zu lösen, die die Zurverfügungstellung der Daten verlangsamen – zum Beispiel Onboarding, Transformation, Verknüpfung und Streaming von Datensätzen.

Die neuen Kriterien für Vorhersage-Projekte

Egal ob schnell wachsende mittelständische Firma, die bezüglich IT flexibel ist, oder Großunternehmen mit vielen Altsystemen – es gibt kaum ein Unternehmen, das nicht die Folgen von Big Data in irgendeiner Form zu spüren bekommen hat. Viele BI-2.0-Anbieter reagieren auf die neuen Anforderungen durch Technologiepartnerschaften und investieren verstärkt in Forschung und Entwicklung, doch oft ist die Geschwindigkeit des Wandels für die bestehenden Kunden zu disruptiv. Die großen Anbieter von Altsystemen, die die neue Konkurrenz zu spät ernst genommen haben, reagieren aggressiv: Sie gewähren hohe Rabatte, erklagen zusätzliche Lizenzgebühren oder streben Patentklagen an.

In diesen turbulenten Zeiten das richtige Vorhersage- und Analyse-Tool auszuwählen ist schwierig. Die altbewährten funktionalen Kriterien laufen Gefahr, zu kurz zu greifen. Welche neuen Kriterien diese ersetzen könnten, wird im Anschluss in Form einer Frageliste zusammengefasst. Diese basiert auf Gesprächen mit Kunden, bei denen IT und Business gemeinsam erfolgreich daran gearbeitet haben, prognostische Analyse im Big-Data- bzw. IoT-Kontext umzusetzen.

Zehn Fragen zur Auswahl eines Prognose-Tools

  • Basiert die Lösung auf Open Source / offenen Standards (und wird von einer Community unterstützt)?
  • Ist die Lösung mit anderen Angeboten (z.B. mit in der Vergangenheit erworbener Visualisierungs-Software) kompatibel?
  • Bietet die Lösung native Unterstützung zu populären Big-Data-Technologien wie z.B. Spark oder Kafka?
  • Lässt sich die Lösung in existierende Systeme einbetten und die Oberfläche entsprechend den verschiedenen Nutzerrollen und Geräten anpassen?
  • Unterstützt die Lösung die Analyse einer umfangreichen Bandbreite an Datentypen/-quellen?
  • Bietet die Lösung Unterstützung für das Onboarden und die Verknüpfung diverser – sowohl relationaler als auch unstrukturierter – Datenarten?
  • Unterstützt die Lösung eine Bereitstellung sowohl als Cloud-, hybride und Vor-Ort-Architektur?
  • Werden existierende DevOps-Prozesse und -Technologien unterstützt?
  • Ermöglicht die Lösung die Zusammenarbeit von IT, Data Scientists und Geschäftsanwendern?
  • Ist die Einführung für neue Nutzer, Kunden und auf verschiedenen Geräten ohne Kostenexplosion bei den Lizenzgebühren möglich?

In unseren ungewissen Zeiten spielen Geschäftsvorhersagen eine wichtigere Rolle als je zuvor. Dank einer engeren Zusammenarbeit von IT und Business und der Big-Data-Technologien werden Prognosen zumindest einfacher, als es der anfangs erwähnte Howard H. Stevenson damals noch einschätzte.

Über den Autor

Dominik Claßen ist Director of Sales Engineering EMEA & APAC bei Hitachi Vantara. Er ist ein Branchenkenner mit langjähriger Erfahrung in Business Intelligence und war für Unternehmen wie Microstrategy, IBM, Cognos und T-Systems tätig. Der Diplom-Wirtschaftsinformatiker verfügt über Abschlüsse der Berufsakademie Mannheim und der Open University London.

Lesen Sie auch : Datenmanagement und KI
Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

24 Stunden ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago