Das Marktforschungsinstitut Gartner legt die Ergebnisse einer Befragung von Führungskräften und IT-Verantwortlichen vor. Demnach scheinen viele Unternehmen nicht sicher, ob der Einsatz von Hadoop tatsächlich für das Unternehmen einen Mehrwert bietet. Auch andere Fragen, wie etwa der gesteigerte Trainingsbedarf bei Mitarbeitern oder hohe Kosten für Hardware sorgen dafür, dass derzeit rund 50 Prozent der Befragten nicht erwägen, innerhalb der nächsten zwei Jahre in die Technologie zu investieren.
“Trotz eines erheblichen Hypes und auch einigen Berichten über den erfolgreichen Einsatz von Hadoopt bei den Early Adopters erklären 54 Prozent der Studien-Teilnehmer, dass sie nicht planen, in diese Technologie zu investieren. Und nur 18 Prozent haben tatsächlich Pläne, in den nächsten zwei Jahren in Hadoop zu investieren”, erklärt Nick Heudecker, Research Director bei Gartner.
Darüber hinaus würden auch erste Anwender nicht weiter in diese Technologie investieren wollen – zumindest in den nächsten 24 Monaten. “Tatsächlich gibt es weniger Unternehmen, die mit Hadoop starten wollen, als es Unternehmen gibt, die es bereits einsetzen.”
Nur 26 Prozent erklären, dass sie derzeit Hadoop einführen, damit experimentieren oder erste Pilotversuche durchführen. 11 Prozent wollen innerhalb des nächsten Jahres Projekte starten und 7 Prozent wollen in den nächsten 24 Monaten eine Hadoop-Lösung einführen.
Für 57 Prozent der Unternehmen ist die fehlende Erfahrung der wichtigste Hinderungsgrund. Daran können auch neue Tools nichts ändern. Auch wenn Hersteller genau auf dieses Problem abzielen, so sind die meisten Tools darauf ausgerichtet, erfahrenen Nutzern Aufgaben abzunehmen.
Laut Gartner verbessern sich diese Werkzeuge zwar, nach wie vor fehlen derzeit noch Werkzeuge, die es auch weniger erfahrenen Nutzern erlauben, mit Hadoop umzugehen. Dann bleibt den Anwendern und Anbietern nur noch, dieses Problem über Trainings in den Griff zu bekommen. Gartner schätzt, dass es noch zwei bis drei Jahre dauern wird, bis dieses Problem aber tatsächlich entschärft wird.
Unternehmen, die derzeit aktiv Pilot-Projekte fahren berichten daher auch von sehr geringen Zugriffszahlen. So würden bei 70 Prozent der Anwender mit einem Hadoop-Cluster nur zwischen 20 und 1 Nutzer auf den Cluster zugreifen. Erstaunlicherweise melden sich auch Unternehmen, in denen es überhaupt keine Nutzer gibt. Bei den von Gartner Befragten ist das bei immerhin 4 Prozent der Unternehmen der Fall.
Dafür gibt es mehrere Gründe. “Typischerweise umfassen frühe Hadoop-Projekte nur wenige Nutzer. Zudem sei der Hadoop-Stack derzeit noch für mehrere Nutzer eher ungeeignet”, erklärt Heudecker. “Ein weiterer Faktor, und das ist vermutlich die beste Erklärung für die niedrigen Nutzerzahlen, ist die Knappheit bei Experten.”
Damit steht auch eine der wichtigsten Argumente für die Lösung auf der Kippe: “Eine der Alleinstellungsmerkmale von Hadoop ist es, eine kostengünstige Alternative zu traditionellen Informationsinfrastrukturen zu sein. Aber, die niedrigen Nutzerzahlen im Verhältnis mit den hohen Kosten für die Cluster-Hardware, und auch der hohen Software-Support-Kosten, könnten bedeuten, dass Hadoop diesem Versprechen nicht gerecht werden kann.”
Damit erklärt sich vielleicht auch die Antwort von 49 Prozent der Befragten, die nicht so recht wissen, wie sie aus Hadoop Mehrwert generieren sollen.
Für viele Unternehmen sei Hadoop derzeit einfach keine Priorität, so Heudecker weiter. Andere sehen in Hadoop einen “Overkill”. Sprich, der Implementierungsaufwand steht für viele nicht im Verhältnis mit dem zu lösenden Business-Problem.
Damit ist der Einsatz von Hadoop derzeit für viele Unternehmen und deren Probleme noch zu teuer und aufwändig. Angesichts des großen Zustroms, den zahlreichen Berichten in Medien und auch zahlreicher Initiativen von Herstellern rund um das quelloffene Big-Data-Framework, scheint die Aussage Gartners einigermaßen überraschend. Auch die Analysten scheinen die Ergebnisse nicht vorausgesehen zu haben.
“Wenn so viele Unternehmen keinen Plan haben oder bereits in Hadoop investiert haben, scheint der künftige Bedarf an bei Hadoop ziemlich blutleer – zumindest was die nächsten 24 Monate angeht”, so Merv Adrian, Research Vice President bei Gartner. Es zeige sich auch, dass gemessen an den kurzfristigen Plänen für den Hadoop-Einsatz, “trotz des ungebrochenen Enthusiasmus für das Big Data Phänomen, die Nachfrage nach Hadoop nicht steigt”.
An die Adresse der Anwender gerichtet erklärt Adrian, dass man sich vor allem auf große Deployments in der installierten Basis konzentrieren solle, um weiteres Umsatzwachstum zu generieren.
Die Umfrage hat das IT Research- und Beratungsunternehmen Gartner im Februar und März 2015 unter 284 Mitgliedern des Gartner Research Circles, bestehend aus IT- und anderen Führungskräften, durchgeführt.
Wie groß ist Ihr Wissen über Big Data? Machen Sie den Test mit 15 Fragen auf silicon.de.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…
View Comments
Auch wenn die zugrundeliegende Technologieidee von Hadoop einige - gerade für die "Endanwender-IT" - "bahnbrechende" Konzepte mitbrachte, so habe ich den m.E. gelegentlich doch übertriebenen Hype nicht ganz nachvollziehen können, zumal ein Gutteil der Vorteile bereits durch den Fakt beschränkt bis zunichte gemacht worden sind, das die Software primär in Java realisiert worden ist. Ich kann mir nicht wirklich vorstellen, das Hadoop in "extremen" Umfeldern wie bei Google & Co. bis heute noch auf Java Basis implementiert als Kernapplikation im Einsatz ist. Installation, Wartung und Betrieb im High Performance Umfeld sind schlichtweg zu holperig und gegenüber Implementierungen in nativem C oder C/C++ bringt Java bei derlei Applikationen eher lahme Ergebnisse - daraufhin deuten ja bereits die Benchmark-Ergebnisse, mit denen Hadoop "berühmt" gemacht wurde. Die Java-Implementierung machte es zwar einfacher, Hadoop in fast schon prototypischer Manier mit bis dahin umspezialisierten Programmierern zu entwickeln und ev. auch einfachere Integrationen im large scale computing der typischen Anwender (zB Finanzumfeld, Pharma, Onlinebusiness uswusf.) zu schaffen (wo Java recht verbreitet ist) - auf Dauer aber überwiegen Faktoren wie Effizienz und Wartungsfreundlichkeit bei der Entscheidung für eine Lösung - und da war Hadoop auf Javabasis bisher eher ein Kompromiss.
Insofern Hadoop technologisch dort ankommt, wo etablierte Internetdaemons und Datenbanken typischerweise sind (in schnellen Sprachen/Hochsprachen entwickelt und entsprechend "standardisiert" ausrollbar), wird das Hadoop-Konzept auch signifikant neue Einsatzbereiche und Marktsegmente erobern können. Ich würde mich jedenfalls nicht wundern, wenn Google & Co. intern bereits neue Implementierungen nutzen, die vom "Javakern" sukzessive oder bereits ganz abgekommen sind.