“Daten sind zu einer wichtigen natürlichen Ressource geworden”, sagte Mychelle Mollot auf IBMs Konferenz BusinessConnect in Mannheim. Daten hätten die gleiche Bedeutung für die Wirtschaft wie sie Erdöl bisher gehabt hat. Mollot ist bei IBM als Vice President für das weltweite Marketing von Business-Analytics-Technologien zuständig.

Um die Ressource Information so gut wie möglich zu erschließen, stellt IBM eine ganze Reihe verschiedener Analyse-Technologien zur Verfügung. Dabei folgt Big Blue nun auch dem Trend, den SAP mit der Datenbank-Appliance Hana seit ein paar Jahren extrem vorantreibt: Anbieter arbeiten verstärkt an In-Memory-Technik, um die Auswertung großer Datenmengen deutlich zu beschleunigen schnell.

IBM hat mit DB2 BLU Acceleration vor kurzem ein Datenbanksystem auf den Markt gebracht, das spaltenorientiert und mit In-Memory-Computing arbeitet. Nun will IBM um diese Technik herum ein ähnliches Paket aus Soft- und Hardware schnüren, wie es SAP mit Hana bereits getan hat. In den Labors des amerikanischen IT-Riesen entwickeln laut Mollot die Experten zur Zeit eine Hardware-Plattform, auf der DB2 BLU Acceleration und IBMs Analyse-Software Dynamic Cubes laufen.

Der Anwender erhält eine vorkonfigurierte Box für seine Datenauswertungen. Hard- und Software
seien dabei optimal aufeinander abgestimmt, so Mollot. “Wir liefern damit eine komplette Lösung für High-Performance In-Memory Analyse.”

IBM positioniert das Angebot klar gegen SAPs Hana. “Wer über Hana nachdenkt, sollte sich auch unsere Lösung anschauen”, betont

“Wer über Hana nachdenkt, sollte sich auch unsere Lösung anschauen”, so Mychelle Mollot auf IBMs Konferenz BusinessConnect in Mannheim. Quelle: M. Strehlitz

Mollot. Im Gegensatz zu dem Produkt aus Walldorf sei das IBM-System aber keine Appliance, sondern eine Hardware-Plattform, hebt Mollot hervor. Der Unterschied: Die Hardware-Plattform ist zwar vorkonfiguriert, der Nutzer kann sie aber im Bedarfsfall an individuellen Anforderungen anpassen.

Laut Mollot bringt die Kombination aus aufeinander abgestimmter Hard- und Software große Performance-Gewinne bei der Analyse von Daten. Wie diese genau aussehen, kann Mollot allerdings noch nicht benennen. Denn noch wird in den IBM-Labors an der neuen Plattform gearbeitet. Somit können auch noch keine IBM-Kunden vom konkreten Nutzen der Lösung berichten.

Mollot verweist aber auf die Performance-Steigerungen, die DB2 BLU Acceleration gebracht habe. So arbeitet zum Beispiel Svenska Handelsbanken mit dem Datenbanksystem. Laut IBM werden in dem schwedischen Kreditinstitut einige Anfragen nun hundert Mal schneller beantwortet als vorher, die Antwortzeiten verringerten sich von 28 Sekunden auf wenige Sekundenbruchteile.

Während DB2 BLU Acceleration bereits von Unternehmen eingesetzt werden kann, ist noch unklar, wann die neue Hardware-Plattform verfügbar sein wird. Mollot will keinen konkreten Zeitpunkt nennen. “Die Lösung wird bald kommen”, lautet die einzige Auskunft dazu.

Die Marketing-Frau weiß aber, für wen das neue System vor allem geeignet ist. “Unternehmen, die komplexe Analysen durchführen und große Mengen an Daten verarbeiten müssen, werden besonders von der Lösung profitieren”, meint Mollot. Dies müssten nicht zwingend nur große Firmen sein. “Auch Mittelständler, bei denen täglich eine große Zahl von Transaktionen anfällt, können das System einsetzen.”

Das steigende Volumen an Informationen ist laut Mollot aber nur eine von mehreren Herausforderungen, denen Unternehmen gegenüberstehen. Die Firmen müssen zudem auch mit vielen verschiedenen Arten von Daten umgehen – von strukturierten und semi-strukturierten bis unstrukturierten Informationen wie etwa Dokumenten. Hinzu kommen Multimedia-Inhalte wie zum Beispiel Videos.

Ein Problem, das zunehmend auf Unternehmen zukommt, ist die Tatsache, dass viele Informationen schlicht nicht verlässlich sind. Das bezieht sich unter anderem auf Social-Media-Seiten, auf denen etwa Nutzer keine korrekten oder wahrheitsgemäßen Angaben von sich machen.

Laut Mollot gewinnt dieses Phänomen aber auch in Unternehmen an Bedeutung. Dort wachse die Zahl an unterschiedlichen Datentöpfen, in denen Informationen liegen, die unvollständig sind oder sich gegenseitig widersprechen. In Mannheim zitierte Mollot die Marktbeobachter von IDC, die hervorsagen, dass bis 2015 etwa 80 Prozent aller verfügbaren Daten nicht verlässlich sind.

Weiterhelfen könnten nach Meinung von Mollot Technologien zur Mustererkennung. Unter dem Namen Sensemaking hat IBM in dem Projekt G2 eine Software entwickelt, die Zusammenhänge zwischen Daten erkennt und diese in Beziehung zueinander setzt. Laut Mollot sei dies eine Schlüsseltechnologie, um das Problem von unkorrekten Daten in den Unternehmen zu lösen.

Page: 1 2

Redaktion

Recent Posts

S/4HANA-Migration: Verzögerung vorprogrammiert?

SAP S/4HANA-Transformationen sind äußerst komplex und verlaufen oft nicht wie geplant – oder scheitern sogar…

2 Stunden ago

Black Friday: Ein Blick auf den Schnäppchen-Hype

Der Black Friday, der in den USA traditionell am Freitag nach Thanksgiving gefeiert wird, hat…

3 Stunden ago

Mehr Datenschutz in der Montage

Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…

3 Tagen ago

Cyber Resilience Act: Countdown läuft

Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…

3 Tagen ago

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

4 Tagen ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

4 Tagen ago