LRZ, TUM und Intel gründen gemeinsames Parallel Computing Center

Das Leibniz-Rechenzentrum (LRZ) der Bayerischen Akademie der Wissenschaften und die Fakultät für Informatik der Technischen Universität München (TUM) haben in Zusammenarbeit mit Intel das Intel Parallel Computing Center (IPCC) “Extreme Scaling on MIC/x86” gegründet. Mit diesem soll die Softwareentwicklung hochparalleler Programmcodes für zukünftige Supercomputer vorangetrieben werden.

Der Supercomputer SuperMUC ist seit Sommer 2012 am LRZ in München in Betrieb. (Bild: MMM/LRZ)

“Mit dem Parallel Computing Center erweitern das Leibniz-Rechenzentrum der Bayerischen Akademie der Wissenschaften, die Informatik der TUM und Intel gemeinsam ihre dringend benötigte Kompetenz für den effizienten Betrieb zukünftiger Supercomputer für nahezu alle Wissenschaftsbereiche”, erklärte Prof. Dr. Arndt Bode, Vorsitzender des Direktoriums des LRZ.

Im IPCC sollen vier Anwendungen für die nächste Generation von Rechnern optimiert werden. Die Programme laufen bereits mit großer Rechenleistung auf dem Supercomputer am LRZ, dem SuperMUC. Die Performance liegt im Bereich von Petaflops und soll auf hundert Petaflops erweitert werden. In den nächsten Monaten ist dafür geplant, den Supercomputer zu erweitern und unter anderem mit Intel Xeon Phi Koprozessoren auszustatten.

Die vier zu optimierenden Programme simulieren Erdbeben und seismische Wellenausbreitung (SeisSol), die Entwicklung des Kosmos (GADGET), wenden Methoden der Molekulardynamik auf industrielle Anwendungen an (ls1 mardyn) oder behandeln hochdimensionale Probleme (SG++), wie sie im Data Mining oder in der Finanzmathematik häufig auftreten.

Das langfristige Ziel des Intel Parallel Computing Center ist es, vor allem den Prozess der Entwicklung wissenschaftlicher Software für zukünftige Rechnersysteme sowohl im Hinblick auf die Rechenleistung als auch auf deren Energieeffizienz besser zu verstehen und ein Modell dafür zu entwickeln. Die Ergebnisse und Erkenntnisse, die mit der Weiterentwicklung der vier Simulationsprogramme gewonnen werden, will das IPCC anschließend der wissenschaftlichen Öffentlichkeit zur Verfügung stellen.

“Systeme mit immer höherer Rechenleistung, die auf parallelen Strukturen basieren, werden uns helfen wichtige Probleme sowohl in der Forschung als auch in der Industrie zu lösen“, sagte Stephan Gillich, HPC Director EMEA bei Intel.

Die TUM und das LRZ sind über die Professoren Michael Bader, Arndt Bode und Hans-Joachim Bungartz im gemeinsamen Intel Parallel Computing Center “Extreme Scaling on MIC/x86” vertreten.

Der SuperMUC ist seit Juli 2012 voll einsatzfähig und befindet sich im Leibniz-Rechenzentrum in Garching bei München. Den Bau des Supercomputers übernahm IBM und beendete ihn im Frühjahr 2011. Die Inbetriebnahme begann Ende 2011.

Ausgestattet ist SuperMUC aktuell mit 18.432 Intel-Xeon-E5-2680-Prozessoren mit acht Kernen und einer Taktrate von je 2,7 GHz sowie mit 820 Intel-Xeon-E7-4870-CPUs mit zehn Kernen und 2,4 GHz. Zudem verfügt er über 340 TByte Arbeitsspeicher, 4 Petabyte permanenten NAS-Plattenspeicher, 10 Petabyte temporären GPFS-Plattenspeicher und einem Bandspeichersystem von mehr als 30 Petabyte. Zur Kühlung kommt ein Aquasar-Kühlssystem zum Einsatz. Die momentane Spitzenleistung beträgt 3,19 Petaflops. Als Betriebssystem verwendet der Supercomputer Suse Linux Enterprise Server.

Tipp: Wie gut kennen Sie sich mit der europäischen Technologie-Geschichte aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de.

Andre Borbe

Andre ist Jahrgang 1983 und unterstützte von September 2013 bis September 2015 die Redaktion von silicon.de als Volontär. Erste Erfahrungen sammelte er als Werkstudent in den Redaktionen von GMX und web.de. Anschließend absolvierte er ein redaktionelles Praktikum bei Weka Media Publishing. Andre hat erfolgreich ein Studium in politischen Wissenschaften an der Hochschule für Politik in München abgeschlossen. Privat interessiert er sich für Sport, Filme und Computerspiele. Aber die größte Leidenschaft ist die Fotografie.

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

8 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

8 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

1 Tag ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

1 Tag ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago