Big-Data-Projekte sind noch rar

Das IBM Institute for Business Value und die Saïd Business School der Universität von Oxford haben gemeinsam untersucht, wie Unternehmen mit Hilfe von Big-Data-Methoden Wert generieren. Befragt wurden knapp 1144 Manager aus 95 Ländern, rund zur Hälfte aus der IT, zur Hälfte aus anderen Geschäftsbereichen. Dazu kamen Interviews mit Fachexperten.


Zunächst besteht noch viel Unklarheit darüber, was mit Big Data eigentlich gemeint ist. 18 Prozent an ein größeres Spektrum an Informationen, 16 Prozent an neue Datenarten und Analysemethoden. 15 Prozent betonten vor allem den Echtzeit-Aspekt, um nur die häufigsten Nennungen zu erwähnen.

Mit der Umsetzung ist es noch nicht so weit her: Erst sechs Prozent der Organisationen betreiben schon zwei oder mehr Big-Data-Projekte, 22 Prozent Pilotprojekte. 47 Prozent legen gerade ihre Roadmap fest und 24 Prozent beschaffen Informationen. Das größte Problem, so die IBM-Studie, sei es, im Vorfeld einenusiness Case zu finden, das zweite Hindernis sind fehlende Spezialisten auf allen Ebenen.

Big Data hat sich trotzdem einen relativ guten Ruf erarbeitet. Von den Befragten glauben inzwischen 63 Prozent, dass sich durch gründliche Datenanalysen Wettbewerbsvorteile generieren lassen (2010: 37 Prozent). Bei aktiven Big-Data-Nutzern lag die Quote 15 Prozent höher.

Beliebteste Datenquellen für Big Data sind Transaktionen, Logfiles, Events und E-Mails.

Informationen über Kunden als wichtigstes Ziel

Was tun nun die heute aktiven Big-Data-Anwender? Meist wollen mehr über ihre Kunden wissen: Was wollen sie, wie verhalten sie sich, wie würden ihnen die angebotenen Produkte besser gefallen? Einzelhandel, Gesundheitswesen, Telekommunikation, Verwaltung und Finanzwesen betreiben Projekte mit diesem Ziel. Dafür werten sie übergreifend Transaktionen, Multikanal-Interaktionen und Soziale Medien aus. Weitere wichtige Ziele sind bessere Prozesse (18 Prozent), Risikomanagement, bessere Zusammenarbeit und neue Geschäftsprozesse.

Voraussetzung für Big Data ist eine stimmige Informationsinfrastruktur. Rund zwei Drittel der befragten Professionals mit Big-Data-Aktivitäten haben ihr Informationsmanagementsystem verbessert oder sind dabei. 65 Prozent integrierten verschiedene Informationsquellen, 64 Prozent erhöhten die Skalierbarkeit der Speicherinfrastruktur, 59 Prozent bauten ein hochkapazitatives Data Warehouse und 58 Prozent kümmerten sich um Datensicherheit und –governance. Die damit verbundenen Kosten versucht das Management durch Strategien wie Cloud, Outsourcing und neue Preismodelle gering zu halten.

Mehr als die Hälfte der Befragten findet nutzt vor allem interne Datenquellen 73 Prozent analysieren Log-Daten, 88 Prozent Transaktionen, 59 Prozent Events und 57 Prozent E-Mails. Social Media, Sensor- und RFID/POS-Daten, Text und räumliche Daten beziehen jeweils etwa 40 Prozent ein.

Bei den verwendeten Lösungen dominieren das klassische Beantworten von Anfragen und Reporting (91 Prozent), Data Mining (77 Prozent), Visualisierungslösungen (71 Prozent) und Prognosemodelle (67 Prozent). Sprach- und Videoanalyse, von Anbietern oft als wichtige Einsatzfelder angepriesen, verwendet heute nur rund ein Viertel der Befragten mit Big-Data-Projekten.

Insgesamt scheinen Anwender bei Big-Data-Projekten klar definierbaren und pragmatisch erklärbaren Schritten zu folgen: Zunächst stellen sie fest, an welchen Analysen überhaupt geschäftliches Interesse besteht.

Anschließend entwerfen sie die nötige Infrastruktur, identifizieren die Datenquellen und die nötigen Analysemethoden, entwickeln dann eine Big-Data-Technologiestrategie und bauen schließlich die Infrastrukturen entsprechend ihrem Bedarf mit der Zeit aus. Dabei wandert die oberste Verantwortung für die Projekte mit der Zeit von der IT in die höchste Managementebene.

Die praktischen Ergebnisse solcher Big-Data-Strategien, von denen der IBM-Report einige aufzählt, sind durchaus beeindruckend. Der südafrikanische Schadensversicherer Santam verwendet Big Data, um die Betrugsschäden (6 bis 10 Prozent des Prämienvolumens) zu verringern und hat seine Abwicklungsprozesse massiv beschleunig.Ein indisches Teehandelsunternehmen beispielsweise eliminierte mit Big Data Unterbrechungen im Handel von 100 Millionen Kilo Tee jährlich. Und das venezolanische Familienunternehmen Automercados Plazas, das Gemüseläden betreibt, erhöhte seinen Umsatz durch Big-Data-getriebenes besseres Lagermanagement und schnellere Reaktionen auf Marktveränderungen um 30 Prozent.

Auch bei Big Data dominieren derzeit mit einfachen Anfragen und Reports konventionelle Auswertungsformen

Sind sie ein EiBiEmmer? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

1 Tag ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago