Earth Simulator beherrscht weiter Supercomputer-Welt

Die Welt der Supercomputer wird weiter vom ‘Earth Simulator’ des japanischen Elektronik-Konzerns NEC dominiert. Die Anlage zur Berechnung von globalen Klimaveränderungen ist mit knapp 36 TeraFlop/s (Billionen Rechenschritte pro Sekunde) 6000 Mal so schnell wie ein moderner PC. Das Parallelrechnersystem wurde 2002 am Yokohama Institute for Earth Science in Betrieb genommen.
Die Nummer zwei auf der aktuellem Liste kann dann ‘nur’ noch mit 20 TeraFlop/s aufwarten. Das Itanium-System ‘Thunder’ ist ein Cluster, also ein Verbund aus mehreren einzelnen Superrechnern. Er steht im Lawrence Livermore National Laboratory (LLNL) in Kalifornien. Dort erforschen Mediziner mit Hilfe des Rechners Aufbau und Eigenschaften von Proteinen. Von zwei auf drei zurückgefallen ist dagegen der ASCI Q-Rechner von Hewlett-Packard (HP). Er bringt es auf knapp 14 TeraFlop/s und wird von der US-Energiebehörde in Los Alamos für die Simulation von Nukleartests eingesetzt.

Blue Gene/L-Rechner von IBM liegen auf Platz vier, mit knapp 12 TeraFlop/s, und Platz acht, mit 9 TeraFlop/s. Der größere der beiden Rechner soll es im kommenden Jahr auf 360 TeraFlop/s bringen und damit den Earth Simulator vom Thron stoßen. Der Sensationsrechner aus dem vergangenen Jahr, der Terascale Cluster, ist nicht mehr auf der Liste, da derzeit die Hardware ausgetauscht wird. Der Eigenbau-Cluster aus handelsüblichen Macintosh-Computern der G5-Modellreihe hatte im vergangenen November für Aufsehen gesorgt – nicht zuletzt weil er mit 5 Millionen Dollar im Vergleich zum 370-Millionen-teuren Earth Simulator ein wahres Schnäppchen war. Cluster-Systeme machen bereits mehr als die Hälfte er Liste aus.

Der schnellste europäische Supercomputer wird auf Platz 21 mit 5,6 Teraflop/s gelistet. Der von IBM stammende Rechner läuft am Forschungszentrum Jülich. Insgesamt stellt IBM rund 45 Prozent der gelisteten Systeme, HP 28 Prozent. Die restlichen Computer verteilen sich auf 29 Hersteller, die oft nur mit einem System vertreten sind. Die Liste wird zweimal jährlich anlässlich der Supercomputerkonferenz in Heidelberg veröffentlicht. Sie findet vom 22. bis zum 25. Juni statt.

Inzwischen geraten aber die Tests, durch die das Ranking erstellt wird, mehr und mehr in die Kritik. Derzeit wird dafür ein mathematischer Test namens Linpack eingesetzt, der misst wie schnell ein System komplizierte algebraische Kalkulationen lösen kann. Andere Aspekte wie der Datentransfer zwischen Arbeitsspeicher und Festplatte bleiben aber unberührt. In der Welt der Supercomputer, die mehr und mehr von Clustern bevölkert wird, sind solche Transferraten aber mittlerweile erhebliche Maßzahlen.

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

13 Stunden ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

13 Stunden ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

2 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

3 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

4 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

4 Tagen ago