Categories: DataKI

Datenbasiert entscheiden: Datenanalyse-Trends 2022

CDOs und CEOs erwarten schnelle und zielgerichtete Ratschläge aus der Datenanalyse. Daher sollten Unternehmen folgende Entwicklungen im datengestützten Handeln beachten:

1. Visualisierung

Daten in konkrete Handlungsempfehlungen zu übersetzen ist die eine Herausforderung. Diese Information im gesamten Unternehmen zu vermitteln, sie zu „demokratisieren“ und allgemeinverständlich zu veranschaulichen, ist eine mindestens ebenso wichtige. Gartner sagt voraus, dass im Jahr 2025 80 Prozent aller unternehmerischen Innovationen auf visualisierten Daten basieren werden. Das ganze Unternehmen sollte daher Datenkompetenz besitzen und fördern. Jeder sollte die typischen Fragen wie „Wo und wie können wir neue Werte für unser Geschäft schaffen oder ausbauen?“ beantworten können. Dabei kann Datenvisualisierung enorm helfen.

2. On-Demand und Echtzeit-Analysen

Datenanalysen, Empfehlungen und daraus abgeleitete Maßnahmen finden immer stärker in kürzesten Zeitspannen bis hin zu Echtzeit statt. Hierbei hilft nicht nur die Visualisierung bei der schnellen Interpretation der Daten. Auch in Dashboards, in denen sämtliche Betriebsdaten konsolidiert werden, bleiben relevante Unternehmensdaten permanent on-demand im Blick und können für sämtliche betriebliche Abteilungen oder auch externe Stakeholder geteilt oder schnell in Reportings übersetzt werden.

3. Small statt Big Data

Das Bewusstsein steigt, dass Künstliche Intelligenz (KI) und Smart Analytics wenig bringen, wenn die Grundlage der Auswertungsprozesse unsaubere Daten sind. Unternehmen, die den Wert der Datenqualität erkennen, wissen spätestens ab diesem Punkt, dass Datenqualität auch zusätzlichen Aufwand für deren Pflege beinhaltet. Schlechte Daten – wie veraltete, ungenaue und unvollständige Daten – mindern die Qualität der Erkenntnisse, die aus Datenanalyse gewonnen werden, und verursachen damit Mehrarbeit. Zudem können Daten auch rechtlich aufs Glatteis führen: So schreibt die DSGVO eine Löschpflicht vor. Also heißt es im Hinblick auf Daten im Jahr 2022: Small statt Big Data und Qualität statt Quantität.

4. KI-getriebenes Data-Storytelling

Data Storytelling übersetzt abstrakte Daten in anschauliche Geschichten und kann Mitarbeitern über reine Auswertungen und Visualisierungen hinaus, Trends anschaulich vermitteln. Entscheider und Analysten können Daten-Stories nutzen, um wichtige Trends, Veränderungen, KPIs und Metriken hervorzuheben und datenbasierte Entscheidungsprozesse zu beschleunigen, und um klar zu sehen, welche nächsten Schritte logisch sein könnten. KI-getriebenes Data-Storytelling kann mit Hilfe holistischer Datenanalysen etwa automatisiert Geschichten aus Daten erstellen. „Augmented Analytics“ ist ein Ansatz, bei dem mit KI Daten zuerst strukturiert und im nächsten Schritt in natürliche Sprache übersetzt werden, um schließlich auf konkrete Anwendungsfälle übertragen zu werden – wie etwa die Sales-bezogene Fragestellung: „Wo kommen unsere Kunden her?“

5. Datenanalyse ist Teamwork und Business-getrieben

Data Analytics wird zunehmend zu einer Disziplin, die weit über die reine Datenwissenschaft, also das reine Sammeln und Aufbereiten von Daten, hinausgeht. Datenanalyseprozesse integrieren vor eine wachsende Anzahl an Rollen und Spezialisten. Datenanalysten haben in diesem Gefüge selbstverständlich weiterhin ihren Platz. Sie arbeiten aber verstärkt mit Business-Stakeholdern zusammen, die definieren, welche Daten überhaupt wichtig sind und verwendet werden sollen. In diesem Prozess spielen Daten-Strategen auch eine wichtige Rolle, die mit Daten-Architekten entscheiden, welche Anwendungsfälle für die Analyse relevant sind. Data Engineers bringen die dafür notwendigen Daten in das passende Format.

6. Datenanalyse auf dem Prüfstand: Wie gut funktionieren Prognosen?

Wenn Vorhersagen aus Datenanalysen mit der Realität nicht übereinstimmen, steht die Datenanalyse auf dem Prüfstand. Einer der Gründe für entsprechende Abweichungen kann neben der Analyse-Methodik die mangelnde Datenqualität sein, durch unvollständige, redundante oder veraltete Daten. Forecasts aus schlechten Daten können Unternehmensstrategen nicht nur in die falsche Richtung leiten, sondern auch enorme Kosten verursachen. Es gilt für Unternehmen also nicht nur, sich grundsätzlich für Datenanalyse und Datenzentrierung einzusetzen, sondern bei spürbaren Abweichungen der Vorhersagen auch die Datenqualität kritisch zu hinterfragen.

Roger Homrich

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

2 Tagen ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

3 Tagen ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

4 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

5 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

6 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

6 Tagen ago