Big Data zeichnet nach allgemeiner Definition dadurch aus, dass die anfallenden Daten mit hoher Geschwindigkeit (Velocity), in großen Mengen (Volume) und in unterschiedlichen Formaten (Variety), kurz 3V, anfallen. Gartner meldete im vergangenen Herbst, dass mit Big Data im vorigen Jahr 28 Milliarden Dollar umgesetzt wurden, und in diesem Jahr sollen es bereits 34 Milliarden Dollar werden.
Nutznießer sind vor allem die Anbieter von Speicher-Technologien und Analyse-Software, die in ihrer Werbung wahre Wunderleistungen über Big Data verbreiten: Keine Bauchentscheidungen mehr, keine Fehlentscheidungen mehr, kein Diktat mehr von HIPPO (Highest Paid Person Opinion). Und sie sind selbstbewusst genug, um unmissverständliche Drohungen auszusprechen: “Wer Big Data nicht konsequent einsetzt, wird schon bald pleite gehen”, heißt es bei vielen Präsentationen. Hierzu verweisen sie nahezu alle auf dieselben, wenigen Erfolgsgeschichten von Caesars-Hotels, Ford, UPS und Interconti, die eigenen Angaben zufolge Big-Data-Methoden erfolgreich zur Analyse des Mitarbeiterverhaltens, der Kundenwünsche und der Logistik einsetzen.
Doch es gibt Anzeichen dafür, dass der dazugehörige Wirbelwind nur eine große aufgebauschte Blase ist. So schreibt das International Institute for Analytics (IIA) in einer Research Note, dass “2013 das Jahr sein wird, in dem die Big-Data-Bubble zum Platzen kommt”. Das IIA stützt sich dabei auf die überhitzte Gründer- und Finanzierungs-Szene. Laut deren Forschungsdirektor Ravi Kalakota gab es im vorigen Jahr zwar 360 Venture-finanzierte Neugründungen, doch kaum steigenden Bedarf. “Wir werden einen massiven Shake-Out bei den Startups und ein massives Scaleback bei den etablierten Anbietern erleben”, so Kalakotas Prognose.
Auch bei Gartner ist man über die Zukunft von Big Data skeptischer geworden. “Big Data ist eine Lösung, die ihre Probleme sucht”, sagt Gartner-Analystin Debra Logan. “Nicht einmal Banken mit ihren Milliarden an Kundendaten setzen Big Data ein, denn das meiste davon ist sehr gut in Mainframes organisiert und wird schon seit Jahrzehnten ausgewertet”, so Logan weiter. Dabei verweist sie auf die Deutsche Bank und die HMRC-Bank. Beide haben jüngst davon berichtet, dass es ihnen bislang nicht gelungen sei, die strukturierten Mainframe-Daten mit den unstrukturierten Daten in einem Hadoop-Cluster zu verknüpfen.
Nur einer einzigen Branche spricht Logan eine sinnvolle Nutzung von Big Data zu: “Der Handel steht vor wirklich echten Big-Data-Herausforderungen, die durch RFID, vollelektronischem SCM und den vielfältigen Kundenkarten hervorgerufen werden.” Allen anderen Branchen würden ihrer Ansicht nach zwar mit Big Data experimentieren – aber nur weil es alle anderen auch machen. Doch diese Versuche würden nur viel Geld verschlingen und kaum bessere Ergebnisse liefern. “Big Data ist nur ganz selten eine Antwort auf aktuelle Business-Probleme. In fast allen Fällen können einfache Standard-Programme mit bewährten Samplings und soliden Analytics völlig ausreichende Ergebnisse liefern”, lautet ihre Einschätzung.
Auch die Insider im Big-Data-Business gestehen inzwischen ein, dass Big Data für die “normalen” Firmen zu hoch angesiedelt ist. “Big Data ist verdammt teuer und taugt nicht für die überwiegende Mehrzahl der Unternehmen”, sagt Bruno Aziza, Vice President von SiSense, einer Big Data Analytics Firma. Er verweist auf eine Studie von Vantage Partners, wonach ein Big-Data-Projekt zwischen einer und zehn Millionen Dollar kostet. Außerdem würden die meisten Firmen gar nicht so viele Daten haben, dass sich ein Big-Data-Projekt lohnen würde. Laut SAP haben 95 Prozent aller Firmen nur einen Datenbestand von rund 0,5 bis 40 Terabytes. Nur für die Megadaten-Sammler, wie Facebook oder NASA würden sich Big-Data-Projekte im Bereich von etlichen Petabytes lohnen.
Aziza sieht eines der Probleme von Big Data in der schwammigen Definition: “Wir sollten die Definition von den drei Vs in etwas leicht verständliches abändern, beispielsweise in ‘Big Data ist ein subjektiver Zustand, der dann eintritt, wenn die Infrastruktur eines Unternehmens die anfallen Daten nicht mehr beherrschen kann'”, lautet sein plausibler Vorschlag.
Tipp: Kennen Sie die größten Technik-Flops der IT-Geschichte? Überprüfen Sie Ihr Wissen – mit 14 Fragen auf silicon.de
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
View Comments
Big Data hat, wenn man es richtig einsetzt reichlich Potential. Jedoch muss man hier - wie so oft im Leben - wissen, was man tut bzw. wonach man genau sucht. Im Gegensatz zu Cloud Computing, das antritt universell einsetzbar und standardisiert zu sein, sind Big Data Lösungen speziell auf die Anforderungen der Unternehmen zugeschnitten. Ein One-fits-all Ansatz funktioniert hier leider nicht. Ergo, hier ist Individualität gefragt. Und Individualität ist ein wenig teurer (und meist auch aufwendiger) als die Lösung von der Stange. Genau dieser "Trend" oder besser gesagt diese "Erkenntnis" ist zurzeit zu beobachten. ... aber vielleicht gibt es doch noch irgendwo eine universell einsetzbare und standardisierte Big Data Lösung. Hier lasse ich mich gerne überraschen.