Der ‘K Computer’ schafft über 8 Billiarden Fließkomma-Operationen pro Sekunde (Petaflop/s). Er wird vom Informatik-Forschungsinstitut Riken in Kobe und Fujitsu entwickelt und ist Teil der High-Performance-Computing-Infrastructure-Initiative des japanischen Ministeriums für Bildung, Kultur, Sport, Wissenschaft und Technologie. Die Konfiguration begann Ende September 2010, die allgemeine Verfügbarkeit ist für November 2012 vorgesehen.

Der Begriff K Computer als Codename für den Supercomputer wurde von Riken zu Beginn des Projekts im Juli 2010 eingeführt. Das “K” steht für den Kanji-Buchstaben ‘Kei’, der wiederum 10 Peta (10 Billiarden) symbolisiert. Das Logo des Computers basiert ebenfalls auf dem Buchstaben ‘Kei’.

Aktuell befindet sich der Computer noch im Konfigurations-Status und verfügt über 672 Racks mit insgesamt 68.544 CPUs. Zur Fertigstellung im November 2012 soll er über 800 Racks umfassen. Jedes Rack wird mit schnellen und energieeffizienten CPUs ausgerüstet und an ein Netzwerk angeschlossen, das eine hohe Interkonnektivität ermöglicht. Mit Abschluss der Konfiguration ist beabsichtigt, im Linpack-Benchmark-Programm eine Rechenleistung in Höhe von 10 Petaflop/s zu erreichen. Das System soll dann in einer Vielzahl wissenschaftlicher Einsatzfelder Anwendung finden.

“Ich bin sehr zufrieden, dass wir dieses Ergebnis dank des Einsatzes aller Beteiligten erreicht haben – trotz des Erdbebens in Japan“, sagte Michiyoshi Mazuka, Chairman von Fujitsu Limited. “Mein besonderer Dank gilt unseren Partnern in der Region Tohoku, die eine konstante Bereitstellung an Einzelteilen ermöglichten – und das, obwohl sie selbst von der Katastrophe betroffen sind.” Hunderttausende Komponenten für den schnellen Launch eines solch großen Computers zusammenzubringen, erfordere ein hohes Maß an Zuverlässigkeit.

Der K Computer verdrängte den bisherigen Spitzenreiter Tianhe-1A aus China (2,6 Petaflop/s). Unter den ersten Fünf folgen das Jaguar-System des US-Energieministeriums im Oak Ridge National Laboratory mit 1,75 Petaflop/s, das zweite chinesische System Nebulae (1,27 Petaflop/s) sowie Tsubame 2.0 des Tokyo Institute of Technology mit 1,19 Petaflop/s. Japan hatte die Führung in der Supercomputerliste bereits im November 2004 abgegeben, als der “Earth Simulator” von NEC nach zwei Jahren an der Spitze verdrängt wurde.

Die Leistung der Systeme misst der Benchmark Linpack. Er gilt als etwas praxisfern. “Die Chinesen nutzen die Leistung von GPUs, die für diesen speziellen Benchmark fast perfekt passen”, sagt beispielsweise Bill Gropp, ein Informatikprofessor der University of Illinois Urbana-Champagne, über den jetzt von Platz eins verdrängten Supercomputer auf Nvidia-Basis. “Tianhe-1A ist bei diesem Problem sehr gut, aber nicht bei Problemen, die die Anwendergemeinschaft interessieren.” An einer Alternative zu dem Benchmark wird gearbeitet.

Die Liste bestätigt die Tendenz der vergangenen Jahre, dass sich die Rangfolge schnell ändert. 2008 hatte beispielsweise das System Roadrunner des Los Alamos National Laboratory erstmals die Petaflop/s-Grenze überschritten. Heute sind zehn Systeme mit Petaflop/s-Leistung vertreten, und Roadrunner liegt nach nur drei Jahren auf Platz zehn.

Fotogalerie: Aufbau des ersten Petaflop-Rechners

Klicken Sie auf eines der Bilder, um die Fotogalerie zu starten

Das häufigste Anwendungsgebiet der Top-500-Supercomputer ist die Forschung, für die 75 von ihnen (15 Prozent) eingesetzt werden. 36 sind für Finanzanwendungen bestimmt, 33 für Dienstleistungen, 23 auf das World Wide Web ausgerichtet und 20 erledigen militärische Aufgaben. Nach Herstellern führt IBM mit 42 Prozent, vor HP mit 31 Prozent. Die USA stellen mit 256 Supercomputern knapp über die Hälfte. Dahinter folgen China mit 62, Deutschland mit 30, Großbritannien mit 27, Japan mit 26 und Frankreich mit 25.


Kirk Skaugen, Bild: Intel

Kirk Skaugen, General Manager der Data Center Group von Intel erläuterte in Hamburg, wie das Unternehmen bis Ende des Jahrzehnts Leistungen im Exaflop/s-Bereich ermöglichen will. Mit einer Trillion Rechenoperationen pro Sekunde bedeutet ein Exaflop/s mehrere Hundertmal mehr Leistung als sie heutige Supercomputer bieten.

Um Exascale-Rechenleistung zu erreichen, müssen Industrie und Regierungen laut Skaugen zusammenarbeiten. Zudem seien neue Hardware-Ansätze wie die Intel Many Integrated Core Architecture notwendig. Skaugen beschrieb drei Voraussetzungen, die den Schritt vom Petascale-Computing hin zur Ära des Exscale-Computings möglich machen könnten: Die Fortschreibung des Mooreschen Gesetzes, kombiniert mit einem neuartigen, effizienten Modell zur Software-Programmierung sowie der außerordentlichen Skalierbarkeit der Systeme.

Dieser Leistungszuwachs bedeute aber auch einen Anstieg der Energieaufnahme, sagte Skaugen. So benötige Tianhe-1A zum Erreichen der Exascale-Leistung mehr als 1,6 Gigawatt Energie. Dies sei ausreichend, um zwei Millionen Haushalte zu versorgen. Somit stelle sich hinsichtlich der Energieeffizienz eine enorme Herausforderung. Um sich dieser zu stellen, habe Intel drei europäische Labore eingerichtet. Die Labore sollten unter anderem Simulationsanwendungen erstellen, um die Exascale-Leistung in Sachen Energieeffizienz zu untersuchen.

Intel erwartet demnach, dass die Top 100 der Supercomputer im Jahr 2013 eine Million Prozessoren verwenden werden. Bis 2015 soll sich die Zahl verdoppeln und bis zum Ende des Jahrzehnts auf acht Millionen ansteigen. Die Leistung des schnellsten Supercomputers wird im Jahr 2015 schätzungsweise bei 100 Petaflops/s liegen und die Grenze von einem Exaflop/s im Jahr 2018 durchbrechen. Bis zum Ende des Jahrzehnts wird das schnellste System auf der Erde mehr als 4 Exaflop/s leisten.

Silicon-Redaktion

Recent Posts

Mehr Datenschutz in der Montage

Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…

11 Stunden ago

Cyber Resilience Act: Countdown läuft

Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…

12 Stunden ago

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

1 Tag ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

2 Tagen ago

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

2 Tagen ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

3 Tagen ago