Categories: Cloud

Big Data Analytics

Der Hype um Big Data hat in diesem Jahr wohl den Höhepunkt erreicht. Viele neue Denkansätze und Technologien werden mit dieser Welle nach oben gespült – andere scheinen dem Datenberg einfach nicht gewachsen und drohen unter diesem vergraben zu werden.

Zeit einmal genauer hinzusehen und ein wenig zu differenzieren.

Das Big Data mehr ist als nur ein Buzzword und Neologismus zeigt die wachsende Akzeptanz im Markt. MarketsandMarkets schätzt das Marktvolumen bereits auf 15 Milliarden Dollar (mehr als 46 Milliarden in 2018). Das ist enorm und wahrscheinlich der derzeit am schnellsten wachsende Bereich in der IT.

Auch in meiner Position als Solution Architect sehe ich immer mehr Firmen die sich mit diesem Thema auseinandersetzen. Initiiert werden Big Data Projekte aus unterschiedlichsten Abteilungen und Ebenen – zum Teil von ganz oben, was die strategische Komponente eindrücklich unterstreicht.

Der Use-Case für Big Data ist dabei oftmals noch nicht fix definiert. Es ist derzeit eher ein Herantasten an mögliche Optionen und deren technische Umsetzung. Auch eine kürzlich durchgeführte Umfrage fördert viele der klassischen Anwendungsformen zu Tage – eben nur mit grossen Datenmengen und neuen bzw. andersartigen Formen derselben (z.B. alle Arten von unstrukturierten Daten).

Während die Anwendungen für Big Data denen heutiger Applikationen auf bestehenden Datawarehouses sehr ähnlich sind, sind die technologischen Ansätze jedoch deutlich unterschiedlich.

Der zu erwartende Nutzen ist in vielen Bereichen deutlich höher. Technische “Krücken” wie Sampling oder das Voraggregieren der Zahlen (z.B. OLAP) fallen mit den modernen Ansätzen wie In-Memory, In-Database, MPP (Massive Parallel Processing) und Self-Service BI einfach weg. Einige Vorreiter zeigen hier, welcher ROI (Return on Investment) möglich ist und wo die Sahnestückchen im grossen Big Data Kuchen zu erwarten sind.

Um jedoch die neuen technischen Verfahren sinnvoll einsetzen zu können, bedarf es (weiterhin) einer funktionierenden Data Governance. Denn leider gilt auch Big Garbage in = Big Garbage out – Will heissen: Themen wie Datenqualität, Datenintegration und evtl. Masterdatenmanagement bleiben aktuell und müssen jetzt mit grossen Datenmengen, unstrukturierten Daten und Echtzeit zurechtkommen. Auch hier wird es mit einigen der klassischen Architekturen schwierig bis unmöglich mit vernünftigem Aufwand zum Ziel zu kommen.
Ein Trend der hier auffällt ist die Verschiebung des Aufgabenbereichs der IT Abteilung. Viele der bisherigen Aufgaben verschieben sich zu den Anwendern (Self Service BI, Visual Analytics, einfache Datenaufbereitung, etc.). Damit bleibt Luft für die IT Spezialisten sich um andere Themen, wie eben die Data Governance, zu kümmern. Die Rolle des Data Stewards (Dateneigner) wird uns wohl in Zukunft häufiger begegnen.

Technologisch hört man im Zusammenhang mit Big Data immer wieder von Hadoop. Dem kleinen gelben Elefant wird nachgesagt er könne das zweite Linux im Rechenzentrum werden. Das sind viele Vorschusslorbeeren, aber Google & Co. haben ja schon gezeigt was diese Plattform zu leisten vermag.

Hadoop kann unglaublich günstig grosse Datenmengen speichern – und das sehr performant und sicher. Allerdings stellt das Framework nur die Grundlagen für die späteren Analysen bereit. Speziell wenn es um Advanced Analytics geht (also z.B. Forecasting, Optimierungen, Korrelationsanalysen, Text Analytics o.Ä.), kommt die preiswerte Open-Source Lösung schnell an ihre Grenzen.

Da hier aber meist der entscheidende Wettbewerbsvorteil (und damit der ROI) wartet, gilt es sich nach vernünftigen Lösungen umzusehen, die diese Lücken sinnvoll schliessen können

Zusammenfassend müssen auf folgende Punkte besonderes Augenmerk gelegt werden, sobald es um Big Data geht:

  • Data Governance (Konzepte und Toolset)
  • Architektur (Skalierbar und bezahlbar)
  • Anwendungsbereiche (Use-Cases, ROI Betrachtung)

Jedem dieser Punkte werde ich einen eigenen Blog-Post widmen und hier ein wenig tiefer ins Detail gehen.

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

4 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

4 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

4 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

4 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

4 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

4 Jahre ago