Bildergalerie: Supercomputing in Stuttgart

“Wer mit Supercomputern arbeitet, der erlebt technologischen Fortschritt in einem unglaublichen Tempo. Vor 10 Jahren war unvorstellbar, was heute am Computer darstellbar ist, und auch in 10 Jahren werden wir nach heutigen Maßstäben unvorstellbare Simulationen durchführen können”, erklärte Prof. Dr. Michael Resch, der Direktor des HLRS. “Doch das eigentlich Spannende an der Supercomputer-Forschung ist, dass sie die wichtigsten wissenschaftlichen Disziplinen zusammenführt und einen fruchtbaren Austausch ermöglicht. Denn wie Blut oder Ozeane strömen, lässt sich am Computer mit denselben Algorithmen berechnen.”

Doch Resch sieht ein großes Problem in der Entwicklung von Supercomputern. “Grundlegend dient der Workshop dazu, die Frage zu klären wie es mit der Supercomputer-Forschung weitergeht. Wir fragen uns wie viel Leistung wir aus den Systemen herausholen können”, so Resch. “Wir sehen zwar das die Rechner immer schneller werden, aber das nur theoretisch. Kauft man sich zum Beispiel einen Porsche der mit 300 km/h angegeben ist, aber tatsächlich nur 30 km/h fährt, dann ist das einfach nur frustrierend. Und so geht es uns mit der Supercomputer-Forschung auch”, erklärt Resch. “Die Schwierigkeit besteht darin die theoretischen Vorstellungen der Wissenschaftler mit den hardwaregetriebenen Vorstellungen der Anwender zusammenzubringen. Es wird Petaflops-Systeme geben, die sind unheimlich mächtig, ungefähr eine Million Mal so schnell als das was wir in den 70er-Jahren hatten, aber die Frage ist wie viel kann ich davon überhaupt nutzen – das System läuft zwar theoretisch schnell aber praktisch nicht”, erklärt Resch.

Das HLRS wurde im Juli 2005 eingeweiht. Insgesamt wurden 35 Millionen Euro für das Superhirn von Baden-Württemberg ausgegeben. Das Rechenzentrum ist eines von drei deutschen sogenannten Bundeshöchstleistungsrechenzentren, die sich im März 2007 zu einem Verbund zusammengeschlossen haben – dem Gauss Centre for Supercomputing (GCS). Der Zusammenschluss der drei nationalen Höchstleistungsrechenzentren – John-von-Neumann-Institut für Computing in Jülich (NIC), dem Leibnitz-Rechenzentrum der Bayrischen Akademie der Wissenschaften in München und dem HLRS zum GCS bildet eines der größten und leistungsfähigsten Höchstleistungsrechenzentren in Europa. Finanzielle Unterstützung erhält der Verbund durch das Bundesministerium für Forschung und Bildung (BMBF). Die drei Standorte wechseln sich jeweils mit der Erneuerung ihrer Systeme ab – nachdem in den letzten Jahren Jülich und München neue Supercomputer installiert haben, ist nun wieder Stuttgart an der Reihe.

Page: 1 2

Silicon-Redaktion

Recent Posts

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

5 Tagen ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

5 Tagen ago

Rechenzentrumsnetzwerke als Schlüssel für Desaster Recovery

Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.

5 Tagen ago

Cybersecurity mit KI: Strategischer Vorteil oder Sicherheitsrisiko?

Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…

6 Tagen ago

Datenexplosion durch KI technisch bewältigen

“Amplify Digital and Green Transformation” hieß die zentrale Botschaft des europäischen Flagship-Events „Huawei Connect“ in…

6 Tagen ago

Alnatura steigert Kundenerlebnis mit Blue Yonder

Deutscher Bio-Lebensmittel-Einzelhändler schließt die Migration von Blue Yonder Category Management-Lösungen in die Cloud ab.

7 Tagen ago