Knapp 150 Unternehmen wurden in einer initialen Kampagne angesprochen. Mehr als sechzig Unternehmen kamen schlussendlich in die Bewertung. Die Grundlage für die Bewertung bildet dabei eine Matrix mit 100 Einzelkriterien, die jeweils in ihrer (Teil-) kategorie gewichtet sind. Daraus ergibt sich eine sachliche und unabhängige Sicht auf den Markt.
Mit dem Big Data Vendor Benchmark bringt die Experton Group Transparenz in die Leistungsfähigkeit des noch sehr jungen, man könnte auch sagen unreifen, Marktes. Der Studienbericht wird aber auch Licht in den Anbieterdschungel bringen.
Der aktuelle Big Data Vendor Benchmark bewertet somit ICT-Anbieter, die für die deutschen Anwenderunternehmen tatsächlich eine Relevanz haben und mit technischen Angeboten wie auch mit Beratungsstärken das komplexe Thema der Big-Data-Analytics aufgreifen.
Entsprechend der von der Experton Group seit 2011 postulierten Definition erweitert der Begriff „Big Data“ die herkömmlichen Business-Intelligenz- / Business-Analytics-Lösungen, weil die neuen Dimensionen hinsichtlich des Datenvolumens, der Anzahl und der Art der Quellen, der Verarbeitungszeit und der Anzahl der Nutzer, die die Analyseergebnisse nutzen, die Leistungsfähigkeit der traditionellen Lösungen hardware- und softwareseitig sprengt.
Auf dieser Basis konnte die Experton Group schon viele wertvolle und nachhaltige Business-Cases identifizieren und analysieren, die allerdings nicht im Fokus des Big Data Vendor Benchmarks stehen, sondern insbesondere bei unseren Big Data Orientierungs-Workshops für Verwendung finden.
Auch wenn wir heute noch keine Details zum Big Data Vendor Benchmark veröffentlichen – die Studie wird im Rahmen einer Pressekonferenz am 30. Juli 2013 in München vorgestellt – lässt sich doch schon sagen, dass die Research-Phase interessante Erkenntnisse zu Tage gefördert hat.
Dass „Big Data“, wie schon so oft kolportiert, das Öl des 21. Jahrhundert zu sein scheint, wird unter anderem dadurch belegt, dass auf Anbieterseite eine wahre Goldgräber- oder Ölsucher-Stimmung im Markt herrscht. Fast jeder Anbieter will seine Claims jetzt, da der Markt noch jung ist, abstecken.
Trotz des unreifen Marktes und der Kritikpunkte gibt es bereits Anbieter, die sich positiv absetzen und den Leader-Quadranten entsprechend unserer Bewertungskategorien erreichen. Diese Unternehmen haben in diesem, sich dynamisch entwickelnden, Markt die besten Chancen und sind somit auch am interessantesten für die Anwender, die sich mit diesem Thema intensiv beschäftigen (müssen).
Sehr gut sind inzwischen einige Unternehmen aufgestellt, die Appliances für Big-Data-Analytics anbieten und hier ein sehr hohes Maß an Eigenentwicklung, Integration und Innovation erreichen. Es gibt aber auch IT-Anbieter, die zwar sehr ambitioniert im Big-Data-Markt auftreten, aber Gefahr laufen, ihre bisher für die Themen „Cloud“, „BI/BA – Business Intelligence / Business Analytics“, „MDE / BDE / MES“ (Maschinendatenerfassung, Betriebsdatenerfassung, Manufacturing Execution Sytems) oder auf „In-Memory-Computing“ ausgerichteten Offerings nun als Big-Data-Offerings zu vermarkten. Das reicht – so eine Erkenntnis aus der Researchphase – so weit, dass komplette Cloud-Computing-Offerings aus den vergangenen Jahren plötzlich als Big-Data-Offerings in den Markt gebracht werden.
Eine Open-Source-Technologie, die sich einen Namen gemacht hat, ist Apache Hadoop mit einem inzwischen sehr umfangreichen Portfolio an weiteren Lösungen. Das ist natürlich verlockend: Vielleicht reicht es ja, eine Hadoop-Distribution anzufertigen und zu vermarkten, um sich als Big-Data-Anbieter zu etablieren. Hadoop hat aber auch einen weiteren Vorteil: Die Anwender, vor allem die Anwender mit eigenen IT-Organisationen, könnten Hadoop schnell selbst in ihre IT-Landschaft implementieren. Anwender ohne eigene IT-Kompetenzen, typischerweise kleine und mittelgroße Unternehmen, haben jedoch aktuell nur sehr selten den Bedarf, mehrere hundert Terabyte polystrukturierter Daten zu sortieren.
Es ist verständlich und nachvollziehbar, dass die Anwender an tieferen Recherchen in ihren Daten und an der schnelleren Ermittlung von KPIs interessiert sind. Dabei wird schnell deutlich, dass eine Unterscheidung zwischen klassischen Business-Intelligence-Lösungen, „BI in the Cloud“, „Self-Service BI“ und eben Big-Data-Analytics erforderlich wird.
Im Benchmark wurden die Unternehmen bewertet, deren Lösungen in der Hauptsache über die Verarbeitung von Daten klassischer Business-Warehouses bzw. Facebook-Daten und Social-Media-Daten hinaus gehen oder dem Anwender helfen, auch völlig neue Fragestellungen zu formulieren. Und es zeigt sich, dass es da durchaus spannende technologische Ansätze und anwenderfreundliche Market-Approaches gibt, die bis hin zur Ausbildung von Data-Scientists beim Anwender reichen.
Vielfach wird von „unstrukturierten“ Daten gesprochen, obwohl die Daten sehr wohl strukturiert sind. So werden Maschinendaten oder Twitter-Tweets als „unstrukturiert“ bezeichnet. Doch Maschinendaten sind in ihrer Natur oft sehr gut strukturiert – und lediglich sehr kompakt und nicht direkt in ein Datenfeld einer BI-Lösung kopierbar. Tweets sind ebenfalls sehr klar strukturiert: 140 Zeichen, Hash-Tags als Markierung für Index-Wörter, ergänzt um eine URL oder Short-URL. Neuartige Technologien sind für deren Interpretation und Analyse allerdings nicht erforderlich.
Wir konnten in der Analyse des Marktes auch Unternehmen erkennen, deren Ansätze dem noch jungen Markt einige Schritte voraus sind und beispielsweise Verfahren der semantischen Informationsverarbeitung in ihre Big-Data-Lösungen implementiert haben.
Die Research-Phase zum Big Data Vendor Benchmark hat gezeigt, dass die Big-Data-Anbieter stark auf die gestiegene Leistungsfähigkeit moderner IT-Infrastrukturen und Virtualisierungstechnologien setzen. Von „unbegrenzten Datenmengen“ ist da oft die Rede. Das ist insofern interessant, weil sich die Wissenschaftler und IT-Spezialisten aus der Supercomputing-Szene mehrfach im Jahr treffen, um nach Algorithmen zu suchen, die die Leistung von PetaFLOPS-Computern tatsächlich auch in praktischen Anwendungen abrufen können
Einige Big-Data-Anbieter haben aber auch die Grenzen ihres Big-Data-Approaches benannt, und diese liegen dann z.B. ganz konkret in der Anzahl der ansteuerbaren Storage-Racks oder in der Skalierung der Compute-Leistung. Positiv ist auch zu werten, dass einige Anbieter die maximale bislang verarbeitete Datenmenge beziffern sowie für die praktischen Limitierungen auch theoretische Lösungen skizzieren. Das Gros der untersuchten Unternehmen will jedoch keine Grenzen kennen. Da heißt es also derzeit noch: „The Sky is the Limit“.
Wie eingangs erwähnt ist der Markt noch dabei, sich zu formen. Mit der zunehmenden Marktreife werden sich auch die Angebote der Big-Data-Lösungsanbieter noch weiter schärfen und die Leistungsfähigkeit vieler Vendoren im Benchmark mit noch mehr Referenzen aus Deutschland nachgewiesen werden können.
Die Studie zum Big Data Vendor Benchmark 2013 wird von der Experton Group im Rahmen einer Pressekonferenz am 30. Juli 2013 in München vorgestellt.
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…
Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.
Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…