300 Petaflops – IBM, Nvidia und Mellanox planen neuen Supercomputer

Das US-Energieministerium hat zwei neue Superrecher beauftragt. IBM, Nvidia und Mellanox haben jetzt die Arbeiten an den beiden Supercomputern gestartet. 2017 und 2018 werden diese Rechner in Betrieb gehen und damit die USA wieder zur führenden Supercomputer-Nation machen. Für Sierra und Summit sind Das Budget für die beiden Sierra und Summit genannten Systeme beläuft sich auf 325 Millionen Dollar.


Angetrieben werden beide Rechner von OpenPower-Prozessoren von IBM, denen Nvidias neuer Grafik-Chip Volta zu Seite steht. Über die Nvidia-Technologie NVLink werde der Datenaustausch zwischen CPU und GPU zusätzlich bis zu 12 Mal beschleunigt. Mellanox wiederum steuert High-Speed-Networking-Technologien bei, die die einzelnen Komponenten miteinander verbinden.

Das größere der beiden Systeme, Summit, entsteht am Oak Ridge National Laboratory im US-Bundesstaat Tennessee. Es soll eine Spitzenleistung von 150 bis 300 Petaflops bieten und für zivile und wissenschaftliche Zwecke eingesetzt werden. Für Sierra wiederum ist eine Spitzenleistung von über 100 Petaflops geplant. Es wird am Lawrence Livermore National Laboratory errichtet und soll in erster Linie Simulationen für Nuklearwaffen durchführen.

Beide Supercomputer werden in drei Jahren mit den geplanten Kapazitäten die aktuell schnellsten Systeme weit hinter sich lassen. Die aktuelle Supercomputer-Liste Top500 führt der chinesische Tianhe2 mit 54,9 Peak Petaflops an, also einer Spitzengeschwindigkeit von 54,9 Billiarden Fließkomma-Berechnungen pro Sekunde. Der schnellste US-Supercomputer, der von Cray entwickelte Titan, schafft bis zu 27,11 Peak Petaflops. Der Jülicher Superrechner JUQUEEN ist mit einer Peak-Leistung von 5,8 Petaflops derzeit Deutschlands schnellster Rechner.

Das Wachstum der HPC-Gesamtrechenleistung flachte sich in jüngerster Vergangenheit etwas ab. (Bild: Top500.org)

Laut IBM steht bei der Entwicklung beider Systeme die Verarbeitung von Daten im Vordergrund. Ziel ist es, die Menge der zu bewegenden Daten und damit auch den Energiebedarf zu minimieren. Sierra und Summit sollen in der Lage sein, mehr als 17 Petabyte Daten pro Sekunde zum Prozessor zu bewegen. Das entspricht der Verarbeitung von 100 Milliarden Fotos auf Facebook in einer Sekunde. Wie es von IBM heißt, wurde der Rechner sozusagen um die Daten herum entwickelt.

Bislang habe man das Ziel verfolgt, die stetig wachsende Datenmenge mit immer schnelleren Prozessoren zu kompensieren. Nun aber haben die drei genannten Hersteller einen neuen Ansatz entwickelt, der den Anforderungen von Big Data offenbar besser gerecht wird. So kämen täglich 2,5 Milliarden Gigabyte an Daten hinzu, was ungefähr der Fläche von 250 Millionen Fußballfeldern entspricht, die mit Büchern bedeckt sind. In der neuen, datenzentrischen Systemarchitektur, an der Mellanox, IBM und NVidia in den letzten fünf Jahren entwickelt haben, werden die Komponenten und vor allem die Rechenleistung eines Computersystems dort angesiedelt, wo die Daten sitzen. Datenanalyse, Modellierung, Visualisierung oder Simulationen können damit  mit bisher unerreichter Geschwindigkeit durchgeführt werden, so IBM.

“Die heutige Ankündigung markiert die Abkehr vom traditionellen Supercomputing, das nicht länger praktikabel ist, da Daten mit enormen Raten wachsen”, sagte Tom Rosamilia, Senior Vice President von IBMs System and Technology Group. IBMs neuer auf Daten ausgerichteter Ansatz sei die Zukunft offener Computing-Plattformen und in der Lage, mit den zunehmenden Datenmengen umzugehen.

Darüber hinaus kündigte das Department of Energy weitere 100 Millionen Dollar für ein FastForward2 genanntes Forschungsprojekt an, an dem unter anderem IBM, Nvidia, Intel, AMD und Cray teilnehmen. Ziel dieser Initiative ist die Entwicklung leistungsfähigerer und energieeffizienterer Supercomputer. Die Gesamtleistung aller Systeme der Top500-Liste war zwischen November 2013 und Juni 2014 nur um 24 Petaflops auf 274 Petaflops gestiegen.

[mit Material von Stefan Beiersmann, ZDNet.de]

Tipp: Wie gut kennen Sie sich mit Prozessoren aus? Überprüfen Sie Ihr Wissen – mit dem Quiz auf silicon.de.

Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

7 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

8 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

1 Tag ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

1 Tag ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago