IBM drängt bei Big Data und Analytics in die erste Reihe

IBM Information on Demand 2013 Las Vegas. Quelle: Harald Weiss

IBM ist sicherlich nicht das erste und auch nicht das einzige Unternehmen, das derzeit auf das Thema Big Data aufspringt. Dennoch sieht Big Blue ein wichtiges Unterscheidungsmerkmal: Die umfangreiche Beratungskompetenz von IBM Global Business Services. So, davon ist man bei Big Blue überzeugt, können man jedem Unternehmen optimale Lösungen anbieten.

“Big Data ist das moderne Rohöl, doch es muss erst noch verfeinert werden, bevor es genutzt werden kann. Unsere branchenspezifischen Experten wissen genau, welche Verarbeitungsprozesse im Einzelfall die bestmöglichen Ergebnisse liefern”, sagte IBMs Middleware-Chef Robert LeBlanc in seiner Eröffnungsrede auf der jüngsten IOD-Veranstaltung in Las Vegas (Information on Demand).

Dabei legen die IBM-Consultants bei ihren Konzepten und Empfehlungen größten Wert darauf, dass sie nicht nur IBM-Produkte im Auge haben. Doch in Zukunft können sie im Bereich Big Data immer mehr IBM-Produkte und -Services empfehlen, denn auf der IOD gab es einen ganzen Strauß an entsprechenden Neuankündigungen. Besonders interessant ist IBMs neues Cloud-Angebot. So ist der “BLU Beschleuniger für die Cloud” ein DB2-basiertes “Datawarehouse-as-a-Service” (DWaaS), das mit der bereits im April angekündigten In-Memory-Technologie besonders schnell ist.

Robert LeBlanc, IBM Middleware-Chef sieht vor allem in der großen Beratungskompetenz von IBM ein wichtiges Alleinstellungsmerkmal bei Big Data und Analytics. Quelle: Harald Weiss.

Dabei setzt auch IBM auf eine hierarchische Datenspeicherung, bei der nicht alle Daten In-Memory gehalten werden. Im Mittelpunkt steht dabei eine besonders effiziente Datenkompression. Laut IBM lassen sich mit BLU zehn Terabytes auf ein Terabyte zusammenquetschen, die dann in den Hauptspeicher geladen werden. Mit Hilfe von geschickten Datenauswahlverfahren (Data Skipping) lässt sich das dann nochmals auf nur noch zehn Gigabytes komprimieren. Das alles zusammen führt dann zu Verarbeitungsgeschwindigkeiten, die 25-mal höher sind als bislang.

In den Bereich Big Data gehören auch zwei neue Anwendungs-Umgebungen für Hadoop, die auf InfoSphere aufsetzen. Für europäische Kunden dürfte vor allem “Privacy for Hadoop” interessant sein. Dabei handelt es sich um eine Software, die alle Datenaktivitäten in einem Hadoop-Cluster überwacht und den Zugriff auf sensitive, personenbezogene Daten gemäß voreingestellten Regeln kontrolliert. Alle Zugriffe auf die als sensitiv eingestuften Daten werden protokolliert und untypische Zugriffs-Muster lösen einen Alarm aus – und zwar auch dann, wenn es sich dabei um zugriffsberechtigte Personen handelt.

Ein weiteres neues Tool ist das “Governance Dashboard”, das nicht nur für Hadoop, sondern für eine Vielzahl an unterschiedlichen Datenquellen genutzt werden kann. Damit lassen sich für alle Datenbestände Nutzungs- und Kontrollregeln vorgeben und anpassen. Das neue Dashboard lässt sich mit vielen bestehenden Sicherheits- und Datenschutz-Tools verbinden, sodass hier eine einheitliche Konsole für die gesamte Datenintegrität zur Verfügung steht.

Außerdem verwies IBM in diesem Zusammenhang nochmals auf das neue PureData-System für Hadoop, das bereits im September vorgestellt wurde. Diese neue Hadoop-Appliance ist laut IBM viermal schneller als vergleichbare “Standard-Hadoop-Implementationen”, wie die von Cloudera oder Hortonworks.

Bei allen Analytics-Anwendungen nutzt IBM jetzt verstärkt seine Erfahrungen aus dem Watson-Projekt. Neben dem Ausbau der bisherigen Watson-Appliance im Gesundheitswesen – die im nächsten Jahr die schriftliche Prüfung eines Assistenz-Arztes ablegen will – werden Teile davon in andere Anwendungen transferiert. So stellte IBM das neue Abfragesystem Neo vor, bei dem in natürlicher Sprache wahlfreie Abfragen an einen vorgegebenen Datenbestand gerichtet werden können. Neo verwendet hierzu eine Vielzahl an vordefinierten Datenbanken, die das System automatisch so aufbereitet, dass entsprechende Suchabfragen schnell möglich sind. Die Ausgabe der Abfragen erfolgt dann weitestgehend in grafischer Form.

Außerdem wird Watson jetzt mit einer Vielzahl an APIs ausgestattet, sodass auch Drittanbieter ihre eigen System mit Watson kombinieren können. IBM verspricht sich sehr viel vom zukünftigen Watson-Geschäft. In zwei Jahren soll dieses intelligente System rund 1,5 Prozent vom Gesamtumsatz einbringen und bis 2018 soll dieser Anteil sogar auf 10 Prozent ansteigen.

Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

11 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

11 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

1 Tag ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

1 Tag ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago