Categories: Data

Pivotal: Lösungen für die neue Big-Data-Generation

Pivotal One mit den Modulen App Fabric, Data Fabric und Cloud Fabric soll im vierten Quartal verfügbar sein. Quelle: EMC

In den letzten Jahren schien es manchmal, als wäre EMC dem Software-Kaufrausch verfallen. Doch langsam wird eine Strategie sichtbar, die wesentlich auf das Thema Big Data setzt.

Deutschland-Geschäftsführerin Sabine Bendiek präsentierte auf dem EMC Forum in Frankfurt die Auswertung einer Umfrage zum Thema Big Data, an der ungefähr 300 der auf der Veranstaltung registrierte Besucher teilgenommen hatten. Danach glauben 56 Prozent der Befragten, dass der bessere Umgang mit Daten zu leichteren Entscheidungen beitrage. 23 Prozent, dass Big Data Unternehmen Wettbewerbsvorteile verschafft und 35 Prozent, dass Big Data entscheidet, wer in spezifischen Branchen die Nase vorn hat. 35 Prozent sagen, dass ihr Senior Management schon heute Big Data vertraue, 41 Prozent sahen die Technologie als wichtig zur Abwehr von Cyberattacken an.

EMC sieht im Bereich Anwendungen für die Datenanalyse eine der zukünftigen Kernkompetenzen.

“Wir gehen zu einer dritten IT-Plattform nach Mainframe und PC-Zeitalter über, in der es um Milliarden Anwender, Millionen Applikationen und riesige Datenmassen geht”, sagte Bendiek. Neue Workloads seien weniger komplex und mit der physischen Infrastruktur weniger verzahnt, stellten aber beispielsweise höhere Anforderungen an die Skalierbarkeit von Datenspeichern.

“Google und Amazon können deshalb so gut neue Anwendungsumgebungen bauen, weil sie auf der grünen Wiese angefangen haben – wir müssen aber Investitionen schützen und dafür sorgen, dass auch die alten Anwendungen weiter laufen können”, erklärte Bendiek, warum EMC weiter viele Speicherplattformen anbietet.

Das ist nicht die einzige Form der Vielfalt: Zukünftig sollen drei Firmen selbständig unter dem EMC-Dach Geschäft machen: EMC liefert Infrastruktur, VMware übergreifende Virtualisierung und Pivotal stellt innovative Anwendungen für die Handhabung und Analyse von Daten her. “Wir wollen, dass der Kunde auf jeder Ebene die Wahl hat. Das ist möglicherweise zunächst unbequem für uns, aber ein Anreiz, uns auf jeder der Ebene zu perfektionieren”, sagte Paul Maritz, CEO von Pivotal.

56 Prozent glauben, dass der bessere Umgang mit Daten leichtere Entscheidungen bedeutet. Ob die Entscheidungen auch besser sind, wurde allerdings nicht gefragt. Quelle: EMC

Was wird Pivotal im Einzelnen tun? Das Unternehmen soll drei Aufgaben erfüllen: Erstens baut es eine Cloud-Fabric, also eine Open-Source-Abstrahierungsschicht, mit der man Daten und Workloads auf unterschiedlichen Cloud-Formen unterbringen, zwischen ihnen verschieben und verwalten kann und die ein übergeordnetes Serviceregister haben. Die Cloud-Fabric wird unter Apache-II-Lizenz gestellt. Diese Aufgabe übernimmt das Team der ehemaligen CloudFoundry.

Zweitens entsteht mit AppFabric eine neue Entwicklungs- und Anwendungsumgebung, die als Middleware fungiert. Hier finden Spring++ und andere Frameworks wie Rails oder Node ihren Platz. Für das Open-Source-Framework Spring hat Pivotal kürzlich die Betreuung (“Stewaredship”) übernommen.

Die Data Fabric als drittes Element, umfasst eine neue Generation von Daten verarbeitenden Applikationen. Hier finden sich Greenplum, Gemfire, spezialisiert auf In-Memory-Grids, und andere Aufkäufe wieder.

Basis aller Applikationen ist das Hadoop-Filesystem HDFS. Gerade bauten die ersten Unternehmen HDFS-basierende “data lakes”, unstrukturierte Datenspeicher, die einfach alles aufnehmen, was an Daten überhaupt für eine potentielle Analyse zur Verfügung stehe und deshalb hochskalierbar sind.

Darin liegen auch Logs oder Transaktionen. “Die brauchen wir etwa, um IT-Angriffe schnellstens zu erkennen und abzuwehren”; erklärte Maritz. Denn in Zukunft werde Prävention zugunsten der Erkennung und Abwehr beim Schutz der IT zurücktreten.

Aus Greenplums Technologien entsteht Pivotal HD, das Map-Reduce, SQL und andere Datenbanktechnologien unterstützt. Dazu gehört das Modul HAWQ Advanced Database Services mit einem Pipelining-Mechanismus, einem Erweiterungsframework, Katalogdiensten und eine Optimierungslösung für Anfragen unterhalb einer Schicht für ANSI-SQL und Analytics.

Hawq sei bei Testläufen um Größenordnungen schneller gewesen als Hive oder Cloudera Impala, berichtete Maritz. Aus Gemfire wird das transaktionsorientierte Analysesystem Pivotal Transactions.

“Wir wollen möglichst alle Datentypen, ob in klassischen oder neuen Formaten, mit unseren neuen Applikationen analysieren und verwalten”, postuliert Maritz. AppFabric, Data Fabric und Cloud Fabric sind auch einzeln erhältlich. Schon bald können Anwender sich selbst ein Bild davon machen: Unter der Marke “Pivotal One” kündigte Maritz die erste voll instantiiere Version für das vierte Quartal 2013 an.

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

23 Stunden ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago