Data Analytics kann helfen, schlechte Entscheidungen auf ein Minimum zu reduzieren, indem dem Entscheidungsprozess eine faktenbasierte Informationsbasis vorgeschaltet wird. Oder anders gesagt, Data Analytics kann dabei helfen, Fragen zu beantworten wie: Was wünschen sich Kunden und Geschäftspartner? In welchen Mengen wird ein bestimmtes Produkt in Zukunft nachgefragt oder kann ich den Zeitpunkt prognostizieren, bevor Materialverschleiß zum Schaden wird? Wer über den richtigen Datensatz und die dazu passende Analyse-Methode verfügt, kann all diese Fragen schon heute beantworten und hat damit einen klaren Wettbewerbsvorteil.
Im Jahr 2013 erklärte der amerikanische Psychologe und Verhaltensökonom Dan Ariely: „Big Data ist wie Teenagersex: Jeder spricht darüber. Keiner weiß wirklich, wie es geht. Alle denken, dass die anderen es tun, also behauptet jeder, dass er es auch tut.“ Das ist fünf Jahre her und seitdem hat sich in den Unternehmen vieles verändert. Was bislang häufig gleich geblieben ist, ist die mangelnde Skalierung von Pilotprogrammen. Die Gründe sind vielfältig und es ist ein klarer Zusammenhang erkennbar zwischen dem Digitalisierungsgrad eines Unternehmens in Gänze und der funktionsübergreifenden Skalierung von Analysemethoden in Unternehmen.
Die häufigsten Gründe für fehlende ausbleibende Skalierung: Das Top-Management stellt dem Analyse-Team nicht die richtigen Fragen und investiert nicht genügend in die Entwicklung der Data Analytics-Fähigkeiten. Die Folge kann frustrierend sein: Die Programme im Bereich Data Analytics bleiben auf der Strecke und hinter den Erwartungen des Managements zurück. Die notwendigen Investitionen, um weiter zu lernen, bleiben aus und der Teufelskreis setzt sich zuverlässig in Gang.
Doch es gibt sie ja, die anderen Unternehmen, die mit ihren Analytics-Programmen erfolgreich sind. Doch was machen diese Unternehmen anders, beziehungsweise was machen die anderen falsch? Um diese Frage zu beantworten, müsste man sich jeden Einzelfall im Detail anschauen.
So unterschiedlich diese zehn Fehler auch sind, eines haben sie gemeinsam. Sie zeigen: Wer die Chancen von Datenanalysen wirklich für sich nutzen will, muss seine gesamte Unternehmenskultur auf dieses Ziel hin ausrichten. Es genügt nicht, ein Team aus Spezialisten zusammenzustellen und zu glauben, dass diese im stillen Kämmerlein vor sich hinarbeiten und trotzdem bahnbrechende Ergebnisse liefern. Data Analytics muss Teil des Kerngeschäfts sein und in andere Unternehmensprozesse wie Marketing und Vertrieb integriert werden.
Zudem ist es essentiell, dass neben Technikern und Strategen auch „Analytics-Übersetzer“ an Bord geholt werden. Sie stellen das Bindeglied zwischen den Daten-Spezialisten und dem Unternehmen und dem Top-Management dar. Sie geben die Ziele und Fragestellungen der Firmenleitung an die Daten-Experten weiter und spielen die Ergebnisse der Datenanalyse zurück in den Betrieb.
Neben der Expertengruppe sollte aber auch die Firmenleitung über ein gewisses Fachwissen auf diesem Gebiet verfügen. Die Zauberworte „Künstliche Intelligenz“ und „Advanced Analytics“ sind zwar in der Regel bekannt, doch nur die wenigsten wissen, was sich dahinter tatsächlich verbirgt. Ohne dieses Wissen ist es aber kaum möglich, die drängenden Fragen zu beantworten. Von wo aus soll die Datenanalyse beispielsweise gesteuert werden? Von einer zentralen Stelle? Das birgt die Gefahr, dass sie nicht bis in die einzelnen Geschäftsbereiche vordringt. Oder dezentral aus den einzelnen Abteilungen heraus? Hier besteht das Risiko von Co-Existenzen. Mehrere Analyse-Programme bestehen nebeneinander und sind nicht kompatibel.
Sollen bestimmte Aufgaben an externe Dienstleister abgegeben werden? Auch diese Entscheidung sollte reiflich überlegt sein. Natürlich können strategische Partnerschaften ein Gewinn sein. Gleichzeitig ist die Datenanalyse aber vergleichbar mit dem Gehirn eines Unternehmens. Und wer möchte schon, dass ein Fremder Zugriff auf all seine Erinnerungen und Zukunftspläne hat. Ziel muss immer sein, alleine laufen zu können.
Aber auch die übrigen Mitarbeiter müssen auf die Reise hin zu einem datengetriebenen Unternehmen mitgenommen werden. Schließlich müssen sie nicht nur eng mit den Daten-Experten zusammenarbeiten, sondern vor allem auch auf deren Ergebnisse vertrauen. Nur so kann die Datenanalyse zur Grundlage für wichtige Geschäftsentscheidungen werden. Klar ist, dass es nicht reicht, lediglich die neuen Rollen vom Chief Analytics Officer (CAO) bis zum Chief Data Officer (CDO) zu vergeben. Die Arbeit fängt dann erst an.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…
View Comments
Sehr geehrter Herr Dr. Breuer,
gestatten Sie mir einen Kommentar zu Ihrem Beitrag, indem ich auf das Stichwort "Pivot-Tabellen-Berichtsgenerator" verweise, welches in der kommenden Auflage der "Enzyklopädie der Wirtschaftsinformatik" erscheinen wird.
Stichworte: BI-Power User, Data Analysis eXpressions (DAX), Flache Tabelle, MultiDimensional eXpressions (MDX), Multidimensionale Datenmodellierung (MDDM), OnLine Analytical Processing (OLAP), Pivot-Chart, Pivot-Tabelle, Power Pivot, Self-Service Business Intelligence (SSBI), SQL-View, Stern-Schema, Tabellarisches Modell.
Kurzfassung
Pivot-Tabellen-Berichtsgeneratoren ermöglichen dem Endanwender ein eigenständiges Online Analytical Processing (OLAP) ohne Unterstützung durch eine Zentrale IT (Self-Service Business Intelligence / SSBI). Hierzu müssen die Input-Daten in Form einer flachen Tabelle (ohne Fremdschlüssel) vorliegen; sie gleicht einer SQL-View auf das Stern-Schema der Multidimensionalen Datenmodellierung. Zur Unterscheidung spricht man vom Tabellarischen Modell.
Die Struktur der Input-Daten basiert auf dem Tabellarischen Modell; sie gleicht einer SQL-View auf das Stern-Schema der Multidimensionalen Datenmodellierung. Die Input-Daten werden als flache Tabelle (ohne Fremdschlüssel) importiert. Mit dem Berichtsgenerator wählt der Benutzer Attribute (Spalten) der flachen Tabelle aus, um sie der Zeilen- und der Spaltendimension der Pivot-Tabelle, ihren Wertfeldern und den Berichtsfiltern zuzuordnen. Eine damit einhergehende Dimensionsreduktion bedingt eine Aggregation der dem Wertefeld zuzuordnenden Messgrößen / Fakten. Der Benutzer hat die Wahl zwischen mehreren Aggregatfunktionen (SUM, ANZAHL, MEAN etc.) und Formen der Ergebnisdarstellung (absolut, relativ in Bezug auf übergeordnete Werte etc.). Berichtsfilter und selektive Filter unterstützen Drill Down / Roll Up und Slice & Dice.
Das Arbeiten mit dem Pivot-Tabellen-Berichtsgenerator und dessen Leistungsumfang illustriert eine Fallstudie zur Sozialstatistik unter Einsatz des Excel Add In „Power Pivot“.
Mit freundlichen Grüßen
Prof. Dr. Wilh. Hummeltenberg