Supercomputer: Marschroute Exascale
Auf der Hamburger ‘International Supercomputing Conference’ (ISC) wurde die neue Supercomputer-Bestenliste vorgestellt. Sie wird erstmals seit 2004 wieder von einem System aus Japan angeführt – dem ‘K Computer’. Intel kündigte an, zusammen mit Partnern bis Ende des Jahrzehnts “umfassende Lösungen im Exascale-Bereich” anzubieten.
Der ‘K Computer’ schafft über 8 Billiarden Fließkomma-Operationen pro Sekunde (Petaflop/s). Er wird vom Informatik-Forschungsinstitut Riken in Kobe und Fujitsu entwickelt und ist Teil der High-Performance-Computing-Infrastructure-Initiative des japanischen Ministeriums für Bildung, Kultur, Sport, Wissenschaft und Technologie. Die Konfiguration begann Ende September 2010, die allgemeine Verfügbarkeit ist für November 2012 vorgesehen.
Der Begriff K Computer als Codename für den Supercomputer wurde von Riken zu Beginn des Projekts im Juli 2010 eingeführt. Das “K” steht für den Kanji-Buchstaben ‘Kei’, der wiederum 10 Peta (10 Billiarden) symbolisiert. Das Logo des Computers basiert ebenfalls auf dem Buchstaben ‘Kei’.
Aktuell befindet sich der Computer noch im Konfigurations-Status und verfügt über 672 Racks mit insgesamt 68.544 CPUs. Zur Fertigstellung im November 2012 soll er über 800 Racks umfassen. Jedes Rack wird mit schnellen und energieeffizienten CPUs ausgerüstet und an ein Netzwerk angeschlossen, das eine hohe Interkonnektivität ermöglicht. Mit Abschluss der Konfiguration ist beabsichtigt, im Linpack-Benchmark-Programm eine Rechenleistung in Höhe von 10 Petaflop/s zu erreichen. Das System soll dann in einer Vielzahl wissenschaftlicher Einsatzfelder Anwendung finden.
“Ich bin sehr zufrieden, dass wir dieses Ergebnis dank des Einsatzes aller Beteiligten erreicht haben – trotz des Erdbebens in Japan“, sagte Michiyoshi Mazuka, Chairman von Fujitsu Limited. “Mein besonderer Dank gilt unseren Partnern in der Region Tohoku, die eine konstante Bereitstellung an Einzelteilen ermöglichten – und das, obwohl sie selbst von der Katastrophe betroffen sind.” Hunderttausende Komponenten für den schnellen Launch eines solch großen Computers zusammenzubringen, erfordere ein hohes Maß an Zuverlässigkeit.
Der K Computer verdrängte den bisherigen Spitzenreiter Tianhe-1A aus China (2,6 Petaflop/s). Unter den ersten Fünf folgen das Jaguar-System des US-Energieministeriums im Oak Ridge National Laboratory mit 1,75 Petaflop/s, das zweite chinesische System Nebulae (1,27 Petaflop/s) sowie Tsubame 2.0 des Tokyo Institute of Technology mit 1,19 Petaflop/s. Japan hatte die Führung in der Supercomputerliste bereits im November 2004 abgegeben, als der “Earth Simulator” von NEC nach zwei Jahren an der Spitze verdrängt wurde.
Die Leistung der Systeme misst der Benchmark Linpack. Er gilt als etwas praxisfern. “Die Chinesen nutzen die Leistung von GPUs, die für diesen speziellen Benchmark fast perfekt passen”, sagt beispielsweise Bill Gropp, ein Informatikprofessor der University of Illinois Urbana-Champagne, über den jetzt von Platz eins verdrängten Supercomputer auf Nvidia-Basis. “Tianhe-1A ist bei diesem Problem sehr gut, aber nicht bei Problemen, die die Anwendergemeinschaft interessieren.” An einer Alternative zu dem Benchmark wird gearbeitet.
Die Liste bestätigt die Tendenz der vergangenen Jahre, dass sich die Rangfolge schnell ändert. 2008 hatte beispielsweise das System Roadrunner des Los Alamos National Laboratory erstmals die Petaflop/s-Grenze überschritten. Heute sind zehn Systeme mit Petaflop/s-Leistung vertreten, und Roadrunner liegt nach nur drei Jahren auf Platz zehn.
Das häufigste Anwendungsgebiet der Top-500-Supercomputer ist die Forschung, für die 75 von ihnen (15 Prozent) eingesetzt werden. 36 sind für Finanzanwendungen bestimmt, 33 für Dienstleistungen, 23 auf das World Wide Web ausgerichtet und 20 erledigen militärische Aufgaben. Nach Herstellern führt IBM mit 42 Prozent, vor HP mit 31 Prozent. Die USA stellen mit 256 Supercomputern knapp über die Hälfte. Dahinter folgen China mit 62, Deutschland mit 30, Großbritannien mit 27, Japan mit 26 und Frankreich mit 25.
Kirk Skaugen, General Manager der Data Center Group von Intel erläuterte in Hamburg, wie das Unternehmen bis Ende des Jahrzehnts Leistungen im Exaflop/s-Bereich ermöglichen will. Mit einer Trillion Rechenoperationen pro Sekunde bedeutet ein Exaflop/s mehrere Hundertmal mehr Leistung als sie heutige Supercomputer bieten.
Um Exascale-Rechenleistung zu erreichen, müssen Industrie und Regierungen laut Skaugen zusammenarbeiten. Zudem seien neue Hardware-Ansätze wie die Intel Many Integrated Core Architecture notwendig. Skaugen beschrieb drei Voraussetzungen, die den Schritt vom Petascale-Computing hin zur Ära des Exscale-Computings möglich machen könnten: Die Fortschreibung des Mooreschen Gesetzes, kombiniert mit einem neuartigen, effizienten Modell zur Software-Programmierung sowie der außerordentlichen Skalierbarkeit der Systeme.
Dieser Leistungszuwachs bedeute aber auch einen Anstieg der Energieaufnahme, sagte Skaugen. So benötige Tianhe-1A zum Erreichen der Exascale-Leistung mehr als 1,6 Gigawatt Energie. Dies sei ausreichend, um zwei Millionen Haushalte zu versorgen. Somit stelle sich hinsichtlich der Energieeffizienz eine enorme Herausforderung. Um sich dieser zu stellen, habe Intel drei europäische Labore eingerichtet. Die Labore sollten unter anderem Simulationsanwendungen erstellen, um die Exascale-Leistung in Sachen Energieeffizienz zu untersuchen.
Intel erwartet demnach, dass die Top 100 der Supercomputer im Jahr 2013 eine Million Prozessoren verwenden werden. Bis 2015 soll sich die Zahl verdoppeln und bis zum Ende des Jahrzehnts auf acht Millionen ansteigen. Die Leistung des schnellsten Supercomputers wird im Jahr 2015 schätzungsweise bei 100 Petaflops/s liegen und die Grenze von einem Exaflop/s im Jahr 2018 durchbrechen. Bis zum Ende des Jahrzehnts wird das schnellste System auf der Erde mehr als 4 Exaflop/s leisten.