Analytics: Bewährte Methoden mit neuer Technik

“Die heutigen Auswertemöglichkeiten von großen Datenbeständen, die sich kurz unter dem Begriff ‘Big Data meets New Analytics’ subsummieren lassen, produzieren tagtäglich neue Business-Lösungen, von denen man früher nur träumen konnte”, sagte jüngst IBMs General Manager für Analytics, Rob Ashe, gegenüber silicon.de. Hierzu gehört beispielsweise das kontinuierliche Beobachten von Kunden-Kommentaren in den Social-Media-Seiten, wie Facebook und Twitter. “Mit den neuen Business-Analytics können wir erstmals den ROI von Marketing genau messen”, sagt IBMs Marketing-Experte Yuchun Lee. Seiner Ansicht nach werden in vier Jahren alle Marketing-Ausgaben nur noch nach dem jeweiligen ROI festgesetzt. “Das ist eine gewaltige Abkehr von den bisherigen immensen Streuverlusten bei Marketing und Werbung”, so Lee weiter.


Rob Ashe mit Cognos-iPad Bild: Harald Weiss/silicon.de

Vor allem gehört hierzu das Aufspüren von geschäftsrelevanten Zusammenhängen in den strukturierten Datenbergen eines Unternehmens, was zu einer neuen Anwendungs-Disziplin geworden ist. Dabei handelt es sich de facto nicht um eine neue Technologie, sondern nur um die unendliche Computer-Geschichte von “mehr” und “schneller”. Die vielen beeindruckenden Lösungen von Analytics-Anwendungen im Zusammenhang mit riesigen Datenbeständen basieren nach wie vor auf denselben mathematischen Verfahren, wie Cluster-, Regressions- und Korrelations-Analysen, die schon seit Jahrzehnten in der BI/BA-Welt zum Einsatz kommen.

Einzig bei der Analyse von unstrukturierten Daten wurden neue Verfahren erforderlich, doch diese lassen sich aus den bisherigen Methoden der Spracherkennung und Textanalyse ableiten. IBM stellte hierzu soeben InfoSphere BigInsight vor, das auf IBMs SmartCloud Enterprise läuft. Damit lassen sich alle unstrukturierten Daten, wie Text, Video, Audio, Bilder und Social Media sowohl in-house als auch in der Cloud aufbereiten.

Die oben erwähnten mathematischen Verfahren sind jedoch alle sehr rechenintensiv und die Beschaffung von qualifizierten Ausgangsdaten war in der Vergangenheit sehr schwierig oder ganz unmöglich. In diesen beiden Punkten haben jetzt vor allem die neuen Appliances, wie sie von IBM und Teradata angeboten werden, erstaunliche Leistungs-Steigerungen erreicht. Teradatas neue Data Warehouse Appliance 2690 kann bis zu einer Größe von 315 Terabyte ausgebaut werden und erreicht eine Scan-Geschwindigkeit von bis zu 38 Gigabyte pro Sekunde. Damit ist das System gegenüber dem Vorgängermodell doppelt so schnell und erlaubt die dreifache Datenmenge.

Diese immense Rechenleistung hat nur in einem Punkt die bisherigen Methoden modifiziert: Sampling gehört der Vergangenheit an. Heute muss kein statistisch relevantes Sampling mehr gezogen werden, das man dann anschließend analysiert. Dieser Hilfsgriff war früher nur deshalb erforderlich, weil eine direkte Analyse mit den Original-Daten aus Volumen- und Performance-Gründen unmöglich war.

Auch andere bisher lieb gewordene statistische Hilfsverfahren werden jetzt einfach durch die direkte Analyse des Original-Materials in Verbindung mit neuen Erhebungsverfahren ersetzt. “Wir sehen auf breiter Front den Ersatz der bisherigen Marktforschungs-Aktivitäten durch Business-Analytics”, berichtet Ashe über seine Kundengespräche. Für die Business-Analytics spricht vor allem, dass sie wesentlich schneller sind und außerdem noch präziser und kostengünstiger. Hierbei ersetzen jetzt die Auswertungen von Social Media, wie Twitter und Facebook, die früheren zeit- und kostenintensiven Felderhebungen.

Doch wie so oft bei neuen Anwendungs-Hypes, gibt es dafür (noch) nicht genügend qualifiziertes Personal. Laut einer gemeinsamen Untersuchung von SAS Institut und Accenture wollen 70 Prozent der US-Unternehmen in die analytischen Fähigkeiten und Kenntnisse ihrer Mitarbeiter investieren und 52 Prozent planen die Neueinstellung von Daten-Analysten. “Das Topmanagement hat inzwischen erkannt, dass moderne Analytics die Unternehmens-Performance erheblich verbessern können – doch es fehlt an geeigneten Spezialisten, die die dafür erforderlichen neuen Auswertungen initiieren und bestehende weiterentwickeln können”, sagt Accenture-Analystin Stacy Blanchard über ihr Untersuchungsergebnis.

In diesem Zusammenhang gibt es auch noch eine für die IT-Welt bekannte technologische Hürde zu nehmen: Die CxO-gerechte Aufbereitung und Ausgabe der Ergebnisse. Vor allem bei Realtime- und Streaming-Analytics steht keine Zeit mehr für eine Umsetzung und Interpretation der Ergebnisse durch entsprechende Spezialisten zur Verfügung. Alles muss sofort so präsentiert werden, dass es direkt verstanden werden kann. IBM brachte dazu jetzt eine App für das iPad heraus, die in diese Richtung geht und die Ergebnisse der Cognos-Software direkt in einer CxO-gerechten Form präsentiert.

Silicon-Redaktion

Recent Posts

Siemens entwickelt Copilot für Automatisierungstechniker

Der GenKI-Assistent unterstützt das Engineering in der Industrie. Pilotkunde thyssenkrupp setzt den Copilot weltweit ein.

12 Stunden ago

Google und Schwarz-Gruppe vertiefen Partnerschaft

Ziel ist der Vertrieb gemeinsamer Cloud- und Sicherheitsangebote. Zudem sollen Schwarz´ Büro-Arbeitsplätze auf Google Workspace…

13 Stunden ago

Cloud-Transformation: Vom Wildwuchs zur Effizienz

Wie CIOs die hybride Cloud-Infrastruktur optimieren können, erklärt Dominik Meyer von Novatec Consulting.

14 Stunden ago

Lückenlose Sicherheit ohne erhöhte Latenz

Komplexe Sicherheitsmaßnahmen können kritische Anwendungen verlangsamen. Wer dagegen den einfachen Zugang zu Anwendungen priorisiert, kann…

2 Tagen ago

Bitkom mit frischen Zahlen zum Online-Handel

Black Friday hin, Santa-Sale her - Online-Shopping gehört auch ohne Sonderverkäufe zum Alltag fast aller…

2 Tagen ago

Zwischen Safety und Security: Balanceakt der Industriesicherheit

Die Vernetzung in der Industrie optimiert mit KI Prozesse und reduziert mit Predictive Maintenance ungeplante…

3 Tagen ago