Interview: Die Zukunft des Supercomputers

silicon.de: Welche wissenschaftlichen Bereiche werden zukünftig besonders stark mit der Supercomputerforschung umgesetzt werden?

Schoenemeyer: HPC gehört in viele Bereiche, und kreative Wissenschaftler eröffnen ständig neue Felder. An Arbeit und Möglichkeiten der Innovation mangelt es nicht. Ohne HPC würde heute doch kein neues Auto mehr auf die Straße kommen, weil niemand die für die Zulassung notwendigen Crash-Tests bezahlen könnte. In den letzten 10 Jahren haben sich die entsprechenden Codes allerdings auf ein gewisses Maß eingependelt, das hinreichend von Linux-Clustern adressiert werden kann. Auch NEC bietet hier entsprechende Produkte an. Eine eigene Applikationsgruppe bei NEC nimmt sich der Optimierung dieser Codes auf diesen Systemen an. In den nächsten Jahren werden zudem die so genannten gekoppelten Simulationen zunehmen. So werden etwa Modelle zur Strömungssimulation und Modelle zur Strukturanalyse gleichzeitig an einer Problemstellung arbeiten, beispielsweise bei der Konzeption eines Gezeitenkraftwerks. Auch bei der Erdsystemforschung werden immer mehr Prozesse einbezogen, die bisher vernachlässigt werden mussten, da die notwendigen Computerressourcen nicht ausreichten. Wir verfügen auch über umfangreiche Kenntnisse bei Codes, die die Verbrennung in Motoren simulieren. Auch hier steckt noch ein Potenzial, dass weiter genutzt werden kann und wird.

Von besonderem wirtschaftlichem Interesse sind natürlich die Wachstumsbranchen. Die Nanotechnologie ist ein solches Feld, das in seiner Bedeutung als auch in seinen Herausforderungen noch gar nicht richtig eingeschätzt werden kann. Das Feld der Biotechnologie ist weit, und es zeichnet sich hier folgendes ab: Wenn bislang über Anwendungen in der Biotechnologie die Rede war, so ging man von wenigen ‘typischen’ Applikationen aus mit spezifischen, nur für diese Applikationen relevanten Anforderungen von Hardware und Software. Das hat sich in den letzten Jahren gewaltig geändert. Es gibt schon heute auf diesem Gebiet hochgradig diversifizierte Anforderungen, die alle zusammenspielen müssen, was am Ende sogar direkte computerarchitektonische Konsequenzen haben kann. In der Biotechnologie findet man jedenfalls so ziemlich alles, von Datenbanken über Molekulardynamik und sonstige theoretische Chemie bis hin zu Eigenwertberechnungen und sogar Aufgabenstellungen, die gewisse Ähnlichkeiten mit Kryptologie haben. Und dies alles muss am Ende sowohl theoretisch als auch rechnerisch kombiniert werden. Ein wunderbares Feld voller Herausforderungen.

silicon.de: Gibt es eine Entwicklung beziehungsweise Gemeinsamkeiten über alle wissenschaftlichen Bereiche hinweg?

Schoenemeyer: Ja, es gibt Gemeinsamkeiten. Es existieren bestimmte algorithmische Ähnlichkeiten zwischen Codes aus höchst unterschiedlichen Anwendungsgebieten. Dass die Simulation einer Galaxie starke Ähnlichkeit mit Molekularmodellierung haben kann, würde man auf den ersten Blick gar nicht erwarten. Doch die zugrunde liegenden physikalischen Gesetze führen eben zu sehr ähnlichen Gleichungen, und so viele grundlegend verschiedene Prinzipien gibt es nicht. Es gibt gewisse Analysen, die zur Identifikation der so genannten ‘seven Dwarfs’ geführt haben. Das sind typische Basis-Algorithmen, die immer wieder auftauchen. Mittlerweile spricht man schon von ‘thirteen Dwarfs’, aber das entkräftet das Argument nicht, dass zwischen unterschiedlichen Feldern hohe Synergien bestehen.

Von den Entwicklern bei NEC wird diese Tatsache allgemein anerkannt. Das HLRS spielt dabei die Rolle eines Kristallisationspunkts, an dem das Wissen um diese Basis-Algorithmen Forschern aller Richtungen zur Verfügung gestellt wird. So müssen Wissenschaftler, die Neuland betreten und dabei vielleicht mit ihnen unbekannten numerischen Herausforderungen konfrontiert sind, nicht die Räder neu erfinden, die in anderen Gebieten schon längst vollständig beherrscht werden. An dieser Stelle besteht vermutlich noch ein großes Potential für wissenschaftlich und volkswirtschaftlich relevante Synergien, die von Politik und Wirtschaft noch stärker adressiert werden sollten.

silicon.de: Professor Resch vom HLRS sagte im Gespräch mit silicon.de, dass es schwierig sei, die theoretischen Vorstellungen der Wissenschaftler mit den hardwaregetriebenen Vorstellungen der Anwender zusammenzubringen. So wird es Petaflop-Systeme geben, die unheimlich mächtig sind, aber die Frage ist, wie viel kann man davon überhaupt nutzen – das System läuft zwar theoretisch schnell aber praktisch nicht. Wie kann Ihrer Meinung nach dieses Problem gelöst werden?

Schoenemeyer: Professor Resch versucht, die oben genannten Synergien zu nutzen. Dabei trifft er nicht selten auf Leute, die zwar eine interessante Idee, aber vielleicht wenig Erfahrung im HPC-Bereich haben, sowie auf solche, die sich mit HPC in ihrem jeweiligen Umfeld schon seit vielen Jahren beschäftigen und dabei Experten geworden sind. Letztere sind viel eher theoretisch befähigt, aufwendige Rechnungen zu realisieren die sie an die Weltspitze in ihrem jeweiligen Fachgebiet bringen können, während erstere nicht selten einfach an der Umsetzung ihrer Ideen scheitern. Alleine in diesem Spannungsfeld steckt schon viel Potential für unter Umständen kontroverse Diskussionen. Mehr noch, Resch trifft auf Hersteller, die verständlicherweise betriebswirtschaftlich agieren müssen, die aber andererseits Anforderungen von Anwendungen stärker in ihren Produkten berücksichtigen könnten, dieses aber nicht oder nicht immer tun, weil die Entwicklung teuer und der Markt für ein entsprechend angepasstes Produkt zu klein wäre.

So sind es letztlich Visionäre wie Resch, die durch ihren Überblick über viele wissenschaftliche Disziplinen die Möglichkeit besitzen, nicht nur Gemeinsamkeiten in den Anforderungen sehr unterschiedlicher Nutzergruppen zu identifizieren, sondern diese auch der Politik und den Herstellern verständlich zu kommunizieren. Dadurch, dass solche Visionäre Produktentwicklungen und auch politische Rahmenbedingungen beeinflussen, fördern sie wissenschaftlichen Fortschritt.

Jedenfalls hat Resch meines Wissens die Bedeutung der TOP-500-Liste nie sonderlich hoch eingeschätzt. Verständlicherweise, denn nur sehr wenige ausgesuchte Anwendungen aus der Praxis stellen vergleichbare Anforderungen an die Hardware wie diese Liste es tut, und diese Anwendungen sind in Deutschland rar gesät. Es ist wirklich erstaunlich, dass diese Art der Bewertung solch eine Bedeutung erlangen konnte ohne vernünftige ‘Business-Cases’, die sich auf relevante und repräsentative Forschungsaktivitäten in der Praxis stützen.

Page: 1 2 3 4

Silicon-Redaktion

Recent Posts

Rechenzentrumsnetzwerke als Schlüssel für Desaster Recovery

Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.

4 Tagen ago

Cybersecurity mit KI: Strategischer Vorteil oder Sicherheitsrisiko?

Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…

4 Tagen ago

Datenexplosion durch KI technisch bewältigen

“Amplify Digital and Green Transformation” hieß die zentrale Botschaft des europäischen Flagship-Events „Huawei Connect“ in…

5 Tagen ago

Alnatura steigert Kundenerlebnis mit Blue Yonder

Deutscher Bio-Lebensmittel-Einzelhändler schließt die Migration von Blue Yonder Category Management-Lösungen in die Cloud ab.

5 Tagen ago

So revolutioniert KI & Automatisierung die Lead-Gewinnung durch Content Produktion

Die meisten Markenbotschaften bleiben ungehört. Wie schaffen es Unternehmen wie Siemens, SAP oder Deutsche Telekom,…

5 Tagen ago

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

1 Woche ago