Clustered Storage soll Petaflops-Rechner möglich machen

Seine Firma heißt Panasas und hat bereits den ersten Vertrag in der Tasche. Sie soll für IBMs neuen Auftrags-Supercomputer, Codename ‘Roadrunner’, die Speicher-Cluster bereitstellen.

Da der Rechner im Petaflops-Bereich arbeiten wird (1 Billiarde fließende Rechenoperationen pro Sekunde) ergebe sich bei herkömmlichen Speichern oft ein Flaschenhals. Das will Panasas abschaffen. Gibson treibt bereits seit längerem die Technik dafür zum Standard: Parallel Network File System, PNFS. Dahinter verbirgt sich eine Clusterung, die eine zweite virtuelle Datenstraße anlegt. Hier sollen die Daten in virtueller Weise parallel zu den echten Daten im System noch einmal vorgehalten werden, was den Zugriff beschleunigen und endlich auch die Speicherung eines Supercomputers würdig machen soll.

Die ‘Active Scale 3.0 Storage Cluster’, die IBMs Roadrunner-Team bei Panasas bestellt habe, seien im Input/Output (I/O) deshalb effizienter, weil sie ‘DirectFlow’-Fähigkeiten mitbringen, sagte Gibson. PNFS trenne dabei die Metadaten beim Zugriff und der Speicherung vom Datenstrom und sei allein durch das Anlegen einer zweiten, ebenfalls zweispurigen Daten-Trasse nicht so flaschenhalsanfällig wie die herkömmlichen Systeme mit nur einer Trasse es sind, vor allem an den Head Controllern. Das, verbunden mit der Cluster-Fähigkeit, verteile die Lasten gerade bei hochkomplexen und Performance-kritischen Systemen wie High Performance Computing (HPC) gleichmäßiger.

Außerdem warb Gibson mit der Zuverlässigkeit der Speichertechnik: Im Gegensatz zu einem Storage Area Network oder Network Attached Storage reagiere die PNFS-fähige Cluster-Anwendung gelassener auf Fehler in den Datensätzen. Statt, wie dies bisher oft geschehe, bei einem File System Error ganze Terabytes an Daten zu blockieren oder schlimmstenfalls zu verwerfen, grenze das System den Datensatz mit den problematischen oder unlesbaren Daten einfach aus und halte alle anderen Daten weiterhin vor, so Gibson.

Panasas setzt als einer der wenigen Storage-Spezialisten nahezu komplett auf HPC-Kunden. Einerseits weil es hier viele offene Fragen und vor allem noch keine Spezialspeicher gibt; zum anderen weil Garth Gibson offenbar mit IBM die Ansicht teilt, dass HPC nicht auf die wenigen verkauften Riesensysteme beschränkt bleiben wird und statt dessen nach und nach in die Enterprise-Segmente hineinwächst.

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

1 Tag ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

1 Tag ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

3 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

4 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

5 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

5 Tagen ago