Seine Firma heißt Panasas und hat bereits den ersten Vertrag in der Tasche. Sie soll für IBMs neuen Auftrags-Supercomputer, Codename ‘Roadrunner’, die Speicher-Cluster bereitstellen.
Da der Rechner im Petaflops-Bereich arbeiten wird (1 Billiarde fließende Rechenoperationen pro Sekunde) ergebe sich bei herkömmlichen Speichern oft ein Flaschenhals. Das will Panasas abschaffen. Gibson treibt bereits seit längerem die Technik dafür zum Standard: Parallel Network File System, PNFS. Dahinter verbirgt sich eine Clusterung, die eine zweite virtuelle Datenstraße anlegt. Hier sollen die Daten in virtueller Weise parallel zu den echten Daten im System noch einmal vorgehalten werden, was den Zugriff beschleunigen und endlich auch die Speicherung eines Supercomputers würdig machen soll.
Die ‘Active Scale 3.0 Storage Cluster’, die IBMs Roadrunner-Team bei Panasas bestellt habe, seien im Input/Output (I/O) deshalb effizienter, weil sie ‘DirectFlow’-Fähigkeiten mitbringen, sagte Gibson. PNFS trenne dabei die Metadaten beim Zugriff und der Speicherung vom Datenstrom und sei allein durch das Anlegen einer zweiten, ebenfalls zweispurigen Daten-Trasse nicht so flaschenhalsanfällig wie die herkömmlichen Systeme mit nur einer Trasse es sind, vor allem an den Head Controllern. Das, verbunden mit der Cluster-Fähigkeit, verteile die Lasten gerade bei hochkomplexen und Performance-kritischen Systemen wie High Performance Computing (HPC) gleichmäßiger.
Außerdem warb Gibson mit der Zuverlässigkeit der Speichertechnik: Im Gegensatz zu einem Storage Area Network oder Network Attached Storage reagiere die PNFS-fähige Cluster-Anwendung gelassener auf Fehler in den Datensätzen. Statt, wie dies bisher oft geschehe, bei einem File System Error ganze Terabytes an Daten zu blockieren oder schlimmstenfalls zu verwerfen, grenze das System den Datensatz mit den problematischen oder unlesbaren Daten einfach aus und halte alle anderen Daten weiterhin vor, so Gibson.
Panasas setzt als einer der wenigen Storage-Spezialisten nahezu komplett auf HPC-Kunden. Einerseits weil es hier viele offene Fragen und vor allem noch keine Spezialspeicher gibt; zum anderen weil Garth Gibson offenbar mit IBM die Ansicht teilt, dass HPC nicht auf die wenigen verkauften Riesensysteme beschränkt bleiben wird und statt dessen nach und nach in die Enterprise-Segmente hineinwächst.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.