Das US-Energieministerium hat zwei neue Superrecher beauftragt. IBM, Nvidia und Mellanox haben jetzt die Arbeiten an den beiden Supercomputern gestartet. 2017 und 2018 werden diese Rechner in Betrieb gehen und damit die USA wieder zur führenden Supercomputer-Nation machen. Für Sierra und Summit sind Das Budget für die beiden Sierra und Summit genannten Systeme beläuft sich auf 325 Millionen Dollar.
Angetrieben werden beide Rechner von OpenPower-Prozessoren von IBM, denen Nvidias neuer Grafik-Chip Volta zu Seite steht. Über die Nvidia-Technologie NVLink werde der Datenaustausch zwischen CPU und GPU zusätzlich bis zu 12 Mal beschleunigt. Mellanox wiederum steuert High-Speed-Networking-Technologien bei, die die einzelnen Komponenten miteinander verbinden.
Das größere der beiden Systeme, Summit, entsteht am Oak Ridge National Laboratory im US-Bundesstaat Tennessee. Es soll eine Spitzenleistung von 150 bis 300 Petaflops bieten und für zivile und wissenschaftliche Zwecke eingesetzt werden. Für Sierra wiederum ist eine Spitzenleistung von über 100 Petaflops geplant. Es wird am Lawrence Livermore National Laboratory errichtet und soll in erster Linie Simulationen für Nuklearwaffen durchführen.
Beide Supercomputer werden in drei Jahren mit den geplanten Kapazitäten die aktuell schnellsten Systeme weit hinter sich lassen. Die aktuelle Supercomputer-Liste Top500 führt der chinesische Tianhe2 mit 54,9 Peak Petaflops an, also einer Spitzengeschwindigkeit von 54,9 Billiarden Fließkomma-Berechnungen pro Sekunde. Der schnellste US-Supercomputer, der von Cray entwickelte Titan, schafft bis zu 27,11 Peak Petaflops. Der Jülicher Superrechner JUQUEEN ist mit einer Peak-Leistung von 5,8 Petaflops derzeit Deutschlands schnellster Rechner.
Laut IBM steht bei der Entwicklung beider Systeme die Verarbeitung von Daten im Vordergrund. Ziel ist es, die Menge der zu bewegenden Daten und damit auch den Energiebedarf zu minimieren. Sierra und Summit sollen in der Lage sein, mehr als 17 Petabyte Daten pro Sekunde zum Prozessor zu bewegen. Das entspricht der Verarbeitung von 100 Milliarden Fotos auf Facebook in einer Sekunde. Wie es von IBM heißt, wurde der Rechner sozusagen um die Daten herum entwickelt.
Bislang habe man das Ziel verfolgt, die stetig wachsende Datenmenge mit immer schnelleren Prozessoren zu kompensieren. Nun aber haben die drei genannten Hersteller einen neuen Ansatz entwickelt, der den Anforderungen von Big Data offenbar besser gerecht wird. So kämen täglich 2,5 Milliarden Gigabyte an Daten hinzu, was ungefähr der Fläche von 250 Millionen Fußballfeldern entspricht, die mit Büchern bedeckt sind. In der neuen, datenzentrischen Systemarchitektur, an der Mellanox, IBM und NVidia in den letzten fünf Jahren entwickelt haben, werden die Komponenten und vor allem die Rechenleistung eines Computersystems dort angesiedelt, wo die Daten sitzen. Datenanalyse, Modellierung, Visualisierung oder Simulationen können damit mit bisher unerreichter Geschwindigkeit durchgeführt werden, so IBM.
“Die heutige Ankündigung markiert die Abkehr vom traditionellen Supercomputing, das nicht länger praktikabel ist, da Daten mit enormen Raten wachsen”, sagte Tom Rosamilia, Senior Vice President von IBMs System and Technology Group. IBMs neuer auf Daten ausgerichteter Ansatz sei die Zukunft offener Computing-Plattformen und in der Lage, mit den zunehmenden Datenmengen umzugehen.
Darüber hinaus kündigte das Department of Energy weitere 100 Millionen Dollar für ein FastForward2 genanntes Forschungsprojekt an, an dem unter anderem IBM, Nvidia, Intel, AMD und Cray teilnehmen. Ziel dieser Initiative ist die Entwicklung leistungsfähigerer und energieeffizienterer Supercomputer. Die Gesamtleistung aller Systeme der Top500-Liste war zwischen November 2013 und Juni 2014 nur um 24 Petaflops auf 274 Petaflops gestiegen.
[mit Material von Stefan Beiersmann, ZDNet.de]
Tipp: Wie gut kennen Sie sich mit Prozessoren aus? Überprüfen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…