Big-Data-Projekte sind noch rar

Das IBM Institute for Business Value und die Saïd Business School der Universität von Oxford haben gemeinsam untersucht, wie Unternehmen mit Hilfe von Big-Data-Methoden Wert generieren. Befragt wurden knapp 1144 Manager aus 95 Ländern, rund zur Hälfte aus der IT, zur Hälfte aus anderen Geschäftsbereichen. Dazu kamen Interviews mit Fachexperten.


Zunächst besteht noch viel Unklarheit darüber, was mit Big Data eigentlich gemeint ist. 18 Prozent an ein größeres Spektrum an Informationen, 16 Prozent an neue Datenarten und Analysemethoden. 15 Prozent betonten vor allem den Echtzeit-Aspekt, um nur die häufigsten Nennungen zu erwähnen.

Mit der Umsetzung ist es noch nicht so weit her: Erst sechs Prozent der Organisationen betreiben schon zwei oder mehr Big-Data-Projekte, 22 Prozent Pilotprojekte. 47 Prozent legen gerade ihre Roadmap fest und 24 Prozent beschaffen Informationen. Das größte Problem, so die IBM-Studie, sei es, im Vorfeld einenusiness Case zu finden, das zweite Hindernis sind fehlende Spezialisten auf allen Ebenen.

Big Data hat sich trotzdem einen relativ guten Ruf erarbeitet. Von den Befragten glauben inzwischen 63 Prozent, dass sich durch gründliche Datenanalysen Wettbewerbsvorteile generieren lassen (2010: 37 Prozent). Bei aktiven Big-Data-Nutzern lag die Quote 15 Prozent höher.

Beliebteste Datenquellen für Big Data sind Transaktionen, Logfiles, Events und E-Mails.

Informationen über Kunden als wichtigstes Ziel

Was tun nun die heute aktiven Big-Data-Anwender? Meist wollen mehr über ihre Kunden wissen: Was wollen sie, wie verhalten sie sich, wie würden ihnen die angebotenen Produkte besser gefallen? Einzelhandel, Gesundheitswesen, Telekommunikation, Verwaltung und Finanzwesen betreiben Projekte mit diesem Ziel. Dafür werten sie übergreifend Transaktionen, Multikanal-Interaktionen und Soziale Medien aus. Weitere wichtige Ziele sind bessere Prozesse (18 Prozent), Risikomanagement, bessere Zusammenarbeit und neue Geschäftsprozesse.

Voraussetzung für Big Data ist eine stimmige Informationsinfrastruktur. Rund zwei Drittel der befragten Professionals mit Big-Data-Aktivitäten haben ihr Informationsmanagementsystem verbessert oder sind dabei. 65 Prozent integrierten verschiedene Informationsquellen, 64 Prozent erhöhten die Skalierbarkeit der Speicherinfrastruktur, 59 Prozent bauten ein hochkapazitatives Data Warehouse und 58 Prozent kümmerten sich um Datensicherheit und –governance. Die damit verbundenen Kosten versucht das Management durch Strategien wie Cloud, Outsourcing und neue Preismodelle gering zu halten.

Mehr als die Hälfte der Befragten findet nutzt vor allem interne Datenquellen 73 Prozent analysieren Log-Daten, 88 Prozent Transaktionen, 59 Prozent Events und 57 Prozent E-Mails. Social Media, Sensor- und RFID/POS-Daten, Text und räumliche Daten beziehen jeweils etwa 40 Prozent ein.

Bei den verwendeten Lösungen dominieren das klassische Beantworten von Anfragen und Reporting (91 Prozent), Data Mining (77 Prozent), Visualisierungslösungen (71 Prozent) und Prognosemodelle (67 Prozent). Sprach- und Videoanalyse, von Anbietern oft als wichtige Einsatzfelder angepriesen, verwendet heute nur rund ein Viertel der Befragten mit Big-Data-Projekten.

Insgesamt scheinen Anwender bei Big-Data-Projekten klar definierbaren und pragmatisch erklärbaren Schritten zu folgen: Zunächst stellen sie fest, an welchen Analysen überhaupt geschäftliches Interesse besteht.

Anschließend entwerfen sie die nötige Infrastruktur, identifizieren die Datenquellen und die nötigen Analysemethoden, entwickeln dann eine Big-Data-Technologiestrategie und bauen schließlich die Infrastrukturen entsprechend ihrem Bedarf mit der Zeit aus. Dabei wandert die oberste Verantwortung für die Projekte mit der Zeit von der IT in die höchste Managementebene.

Die praktischen Ergebnisse solcher Big-Data-Strategien, von denen der IBM-Report einige aufzählt, sind durchaus beeindruckend. Der südafrikanische Schadensversicherer Santam verwendet Big Data, um die Betrugsschäden (6 bis 10 Prozent des Prämienvolumens) zu verringern und hat seine Abwicklungsprozesse massiv beschleunig.Ein indisches Teehandelsunternehmen beispielsweise eliminierte mit Big Data Unterbrechungen im Handel von 100 Millionen Kilo Tee jährlich. Und das venezolanische Familienunternehmen Automercados Plazas, das Gemüseläden betreibt, erhöhte seinen Umsatz durch Big-Data-getriebenes besseres Lagermanagement und schnellere Reaktionen auf Marktveränderungen um 30 Prozent.

Auch bei Big Data dominieren derzeit mit einfachen Anfragen und Reports konventionelle Auswertungsformen

Sind sie ein EiBiEmmer? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de

Redaktion

Recent Posts

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

18 Stunden ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

19 Stunden ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

20 Stunden ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago

Künstliche Intelligenz erreicht die Cloud

KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.

5 Tagen ago

AI Act: Durchblick im Regulierungsdickicht

Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.

5 Tagen ago