In Zukunft haben die Unternehmen einen Wettbewerbsvorsprung, die mithilfe von Informationen aus Big-Data-Analysen die richtigen Entscheidungen treffen. Sie sparen so Kosten, optimieren Prozesse, bauen Geschäftsfelder aus oder entwickeln komplett neue Geschäftsmodelle. Wer die Digitalisierung nicht vorantreibt, hat das Nachsehen. Wer aber seine Daten schnell und zielgerichtet auswertet, kann im harten internationalen Wettbewerb bestehen. Deshalb gilt es, Big Data erfolgreich einzuführen, ohne über mögliche Hindernisse bei der Umsetzung zu stolpern.
Damit das gelingt, sollten Unternehmen zuerst ihre strategischen Ziele definieren. Das übernehmen die Führungsebenen der verschiedenen Fachbereiche gemeinsam mit der IT-Abteilung. Sie klären, welche Herausforderungen die Firma aktuell hat und wie Big Data hilft, diese zu bewältigen.
Welche Geschäftsfelder sollen untersucht werden? Wo lohnt es sich, zu erweitern? IT-Dienstleister unterstützen hier, denn sie kennen neue Trends und zeigen mögliche Einsatzgebiete auf. Von Anfang an sollten Firmen auch die technischen Voraussetzungen klären und ihre vorhandene IT-Infrastruktur analysieren. Daraus und aus ihren strategischen Zielen lassen sich die Anforderungen an das Projekt ermitteln.
Dazu müssen Technologien gesucht werden, mit denen sich die Ziele erreichen lassen. Häufig lohnt es sich, auf vorhandenen Analyse-Tools aufzubauen oder sie zu kombinieren. Eine vorkonfigurierte Lösung eignet sich dagegen nur selten. Analyse-Tools, die exakt auf die Anforderungen des Einzelfalls abgestimmt und zusammengefügt sind, erzeugen meist die besten Resultate. Indem neue Komponenten in die Cloud ausgelagert werden, lassen sie sich schnell und kostensparend in die bestehende IT einbinden. Für viele Firmen eignen sich Hybrid-Cloud-Modelle: Sie skalieren, ohne dass der Anwender die lokale Datenhoheit verliert.
Daten schlummern in Unternehmen an vielen Stellen. Zunächst klären die Verantwortlichen, welche davon für das Projektziel wichtig sind. Dabei spielt auch die Form, in der die Daten vorliegen, eine Rolle. Ebenso ist relevant, wie sie sich extrahieren und in einen zentralen Datenpool übertragen lassen. Dieser heißt auch Data Lake oder Data Warehouse. Dort angekommen, gilt es die Daten zu konsolidieren, zu modellieren und zu transformieren, so dass sie vergleichbar und analysierbar werden.
Doppelte oder fehlerhafte Datensätze aus verschiedenen Vorsystemen, sind zu löschen beziehungsweise zu bereinigen. Dies kann bei Stammdaten der Fall sein, die in mehreren Bereichen gespeichert werden, jedoch voneinander abweichen. Da die Form der Daten sich in den Vorsystemen häufig unterscheidet, oder sie in verschiedenen Sprachen abgelegt sind, ist eine Übersetzung in ein einheitliches Format nötig.
Erst wenn die Daten vergleichbar sind, lassen sie sich zentral analysieren. Ein Dashboard bietet einzelnen Fachbereichen eine leicht bedienbare, grafische Umgebung, in der sie freie Analysen durchführen und klassische Reports erstellen können. Plan-/Ist-Vergleiche sowie Zeitreihen sind Teil solcher Analysen. Derartige beschreibende Standard-Auswertungen analysieren im Normalfall die Vergangenheit und liefern Zahlen zur aktuellen Situation. Sie verwenden Erfahrungswerte und typische Analysemuster. Integrierte Planungssysteme werten diese Analysen auf: Sie erlauben die Berechnung von Planungsmodellen und Szenarien basierend auf Informationen aus der Vergangenheit. Erst damit können die Fachbereiche vorausschauend und strategisch handeln.
Einen experimentellen und kreativen Ansatz verfolgen Data Scientists. Sie schließen auf Basis von Planungsmodellen prädiktive und präskriptive Handlungsempfehlungen aus den Daten. Dazu nutzen sie statistische Analysen. Welche Ergebnisse am Ende herauskommen, ist dabei am Anfang oft noch unklar. Zunächst wählt der Data Scientist Variablen aus, legt fest, nach welchem statistischen Verfahren sie untersucht werden sollen und lässt das System nach Zusammenhängen suchen.
Für Unternehmen ist beispielsweise interessant, welche Variablen Einfluss auf ihren Umsatz haben. Relevant könnten Kundenzufriedenheit, globale Investitionsfreudigkeit, Jahreszeit oder das Klima sein. Für solche Analysen können auch zehn, fünfzig oder hundert Attribute in Frage kommen. Aufgabe des Systems ist etwa folgende Fragen zu beantworten: Sinkt oder steigt der Umsatz, wenn die Attribute X, Y und Z aufeinandertreffen? Als Ergebnis bekommen Firmen zum Beispiel die Empfehlung, dass der Lagerbestand während bestimmter Zeiträume aufgestockt werden sollte. So können sie Engpässe bei Lieferungen vermeiden und Kunden besser zufrieden stellen.
Jedoch kann nur derjenige das Potenzial statistischer Analysen voll ausschöpfen, der sie langfristig einsetzt. Erst so erhalten Unternehmen Informationen über die Folgen bestimmter Ereignisse. Sie erfahren, was passiert wenn bestimmte Attribute aufeinandertreffen und welche Reaktion dies erfordert. Lohnend ist es, auch neue Analysemuster in Betracht zu ziehen und bestehende immer wieder anzupassen. Vorhandene Daten sollten fortlaufend auf die Möglichkeit hin überprüft werden, neue Handlungsempfehlungen zu generieren. Prozesse wie dieser können auch automatisiert werden. Voraussetzung für den Erfolg statistischer Modelle ist, sie zu trainieren. Dazu übertragen Data Scientists neue Erkenntnisse in die Modelle und aktualisieren sie so mit dem Ziel, immer optimale Ergebnisse zu erreichen.
Big-Data-Analytics-Projekte stöbern in der Datenflut eines Unternehmens Informationen auf, mit denen sich Mehrwerte generieren lassen. Wichtig dabei sind neben der richtigen Strategie auch die passenden Werkzeuge. Aus den Analysen lassen sich Reports erzeugen, aber auch Handlungsempfehlungen für die Zukunft generieren. Noch mehr bieten statistische Analysen. Wer sie dauerhaft einsetzt und fortlaufend aktualisiert, profitiert besonders und erarbeitet sich so einen Wettbewerbsvorsprung.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…