IBM drängt bei Big Data und Analytics in die erste Reihe

IBM Information on Demand 2013 Las Vegas. Quelle: Harald Weiss

IBM ist sicherlich nicht das erste und auch nicht das einzige Unternehmen, das derzeit auf das Thema Big Data aufspringt. Dennoch sieht Big Blue ein wichtiges Unterscheidungsmerkmal: Die umfangreiche Beratungskompetenz von IBM Global Business Services. So, davon ist man bei Big Blue überzeugt, können man jedem Unternehmen optimale Lösungen anbieten.

“Big Data ist das moderne Rohöl, doch es muss erst noch verfeinert werden, bevor es genutzt werden kann. Unsere branchenspezifischen Experten wissen genau, welche Verarbeitungsprozesse im Einzelfall die bestmöglichen Ergebnisse liefern”, sagte IBMs Middleware-Chef Robert LeBlanc in seiner Eröffnungsrede auf der jüngsten IOD-Veranstaltung in Las Vegas (Information on Demand).

Dabei legen die IBM-Consultants bei ihren Konzepten und Empfehlungen größten Wert darauf, dass sie nicht nur IBM-Produkte im Auge haben. Doch in Zukunft können sie im Bereich Big Data immer mehr IBM-Produkte und -Services empfehlen, denn auf der IOD gab es einen ganzen Strauß an entsprechenden Neuankündigungen. Besonders interessant ist IBMs neues Cloud-Angebot. So ist der “BLU Beschleuniger für die Cloud” ein DB2-basiertes “Datawarehouse-as-a-Service” (DWaaS), das mit der bereits im April angekündigten In-Memory-Technologie besonders schnell ist.

Robert LeBlanc, IBM Middleware-Chef sieht vor allem in der großen Beratungskompetenz von IBM ein wichtiges Alleinstellungsmerkmal bei Big Data und Analytics. Quelle: Harald Weiss.

Dabei setzt auch IBM auf eine hierarchische Datenspeicherung, bei der nicht alle Daten In-Memory gehalten werden. Im Mittelpunkt steht dabei eine besonders effiziente Datenkompression. Laut IBM lassen sich mit BLU zehn Terabytes auf ein Terabyte zusammenquetschen, die dann in den Hauptspeicher geladen werden. Mit Hilfe von geschickten Datenauswahlverfahren (Data Skipping) lässt sich das dann nochmals auf nur noch zehn Gigabytes komprimieren. Das alles zusammen führt dann zu Verarbeitungsgeschwindigkeiten, die 25-mal höher sind als bislang.

In den Bereich Big Data gehören auch zwei neue Anwendungs-Umgebungen für Hadoop, die auf InfoSphere aufsetzen. Für europäische Kunden dürfte vor allem “Privacy for Hadoop” interessant sein. Dabei handelt es sich um eine Software, die alle Datenaktivitäten in einem Hadoop-Cluster überwacht und den Zugriff auf sensitive, personenbezogene Daten gemäß voreingestellten Regeln kontrolliert. Alle Zugriffe auf die als sensitiv eingestuften Daten werden protokolliert und untypische Zugriffs-Muster lösen einen Alarm aus – und zwar auch dann, wenn es sich dabei um zugriffsberechtigte Personen handelt.

Ein weiteres neues Tool ist das “Governance Dashboard”, das nicht nur für Hadoop, sondern für eine Vielzahl an unterschiedlichen Datenquellen genutzt werden kann. Damit lassen sich für alle Datenbestände Nutzungs- und Kontrollregeln vorgeben und anpassen. Das neue Dashboard lässt sich mit vielen bestehenden Sicherheits- und Datenschutz-Tools verbinden, sodass hier eine einheitliche Konsole für die gesamte Datenintegrität zur Verfügung steht.

Außerdem verwies IBM in diesem Zusammenhang nochmals auf das neue PureData-System für Hadoop, das bereits im September vorgestellt wurde. Diese neue Hadoop-Appliance ist laut IBM viermal schneller als vergleichbare “Standard-Hadoop-Implementationen”, wie die von Cloudera oder Hortonworks.

Bei allen Analytics-Anwendungen nutzt IBM jetzt verstärkt seine Erfahrungen aus dem Watson-Projekt. Neben dem Ausbau der bisherigen Watson-Appliance im Gesundheitswesen – die im nächsten Jahr die schriftliche Prüfung eines Assistenz-Arztes ablegen will – werden Teile davon in andere Anwendungen transferiert. So stellte IBM das neue Abfragesystem Neo vor, bei dem in natürlicher Sprache wahlfreie Abfragen an einen vorgegebenen Datenbestand gerichtet werden können. Neo verwendet hierzu eine Vielzahl an vordefinierten Datenbanken, die das System automatisch so aufbereitet, dass entsprechende Suchabfragen schnell möglich sind. Die Ausgabe der Abfragen erfolgt dann weitestgehend in grafischer Form.

Außerdem wird Watson jetzt mit einer Vielzahl an APIs ausgestattet, sodass auch Drittanbieter ihre eigen System mit Watson kombinieren können. IBM verspricht sich sehr viel vom zukünftigen Watson-Geschäft. In zwei Jahren soll dieses intelligente System rund 1,5 Prozent vom Gesamtumsatz einbringen und bis 2018 soll dieser Anteil sogar auf 10 Prozent ansteigen.

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

2 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

3 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

4 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

4 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

4 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

5 Tagen ago