Interview: Die Zukunft des Supercomputers

silicon.de: NEC ist schon seit 1987 im High Performance Computing (HPC) aktiv. Wie betrachten Sie die Entwicklungen der letzten 20 Jahre?

Schoenemeyer: NEC hat bereits 1983 mit dem ersten NEC SX Modell einen sehr leistungsfähigen Vektorrechner auf den Markt gebracht. Übrigens war die treibende Kraft beim Design der SX-2-Serie dieselbe Person, die heute maßgeblich an der Konzeption des nächsten japanischen Höchstleistungsrechners (RIKEN) beteiligt ist: Dr. Tadashi Watanabe. NEC hat in den darauf folgenden Jahren in regelmäßigen Abständen neue Generationen der SX-Serie entwickelt und auch sehr erfolgreich verkauft. Heute stehen über 1000 Vektorssysteme bei NEC-Kunden weltweit.

In vielen Fachgebieten ist die numerische Simulation auch aus finanziellen Gründen nicht mehr wegzudenken. Crash-Simulationen, Strömungssimulationen oder auch die Vorhersage physikalischer Phänomene leisten einen ganz wesentlichen Beitrag zur Schonung von Natur und Umwelt. Deshalb hat sich die numerische Simulation heute als drittes Standbein zwischen der puren Theorie auf der einen und dem Experiment auf der anderen Seite etabliert.

Technisch orientierte sich die Entwicklung des High Performance Computing stark an der Entwicklung der Chip-Technologie, die wiederum maßgeblich von den Anforderungen der Massenmärkte bestimmt war und auch heute noch ist. Problematisch ist, dass Architektur-Trends im Markt häufig eher reaktiv entwickelt werden an Stelle einer aktiv betriebenen, erkenntnis-basierten Entwicklung. Viele HPC-Entwicklungen waren meiner Meinung nach eher dadurch getrieben, in erster Linie einen guten Platz in der TOP-500-Liste zu erzielen.

So sind leider heute die vermeintlich interessantesten Systeme diejenigen, die mit dieser Liste und ihren Messkriterien kompatibel sind und dort ganz oben rangieren. Aus diesem Grund wollen auch viele Hersteller nicht davon abweichen technologische Aspekte in den Vordergrund zu rücken, weil dieses Geschäftsmodell mit der Liste nicht vereinbar und in ihren Augen damit nicht tragfähig wäre.

silicon.de: Wo wird die Supercomputerforschung noch hinführen beziehungsweise wie wird sie sich in den nächsten Jahren weiterentwickeln?

Schoenemeyer: Die kommenden Multi- und Many-Core-Chips sind für viele Anwendungen sicher ein hervorragendes Werkzeug, für andere aber nicht. Auf mittlerweile einigen Konferenzen habe ich erfahrene Nutzer getroffen, die sich besorgt über die Weiterentwicklung ihrer technischen Möglichkeiten äußerten im Hinblick auf ihre bestehenden Programme. Wir gehen davon aus, dass die Anwender in den kommenden Jahren auf künftigen Systemen in etwa die gleiche Rechenleistung erzielen werden wie heute. Sie werden zwar viele Kopien rechnen können, solche Entwicklungen sieht man häufig, aber sie werden ein anspruchsvolleres Projekt nicht schneller abarbeiten können, und der Zeitaufwand mag prohibitiv sein. Deshalb glauben wir, dass zusätzlich zu den Produkten, die auf Standardkomponenten basieren, weitere, auf die hohen Anforderungen speziell abgestimmte Produkte angeboten werden müssen, und dass dafür auch heute schon ein Markt existiert.

Auch wird die technologische Herausforderung zunehmend auf den Nutzer abgewälzt, der sich mit immer komplexeren, in dem Aspekt der Parallelität immer vielschichtigeren Maschinen auseinandersetzen muss, wobei die Entwicklung der Software-Werkzeuge in den letzten 20 Jahre viel zu kurz gekommen ist.

Eines ist aber jetzt schon sichtbar: Datenparallelität als eine mathematisch typische Erscheinung in wissenschaftlichen und Ingenieuranwendungen wird ein wichtiges Mittel sein, um gewisse technologische Hürden, deren Elimination nicht zu erwarten ist, zu bewältigen. Datenparallelität ist aber auch die Grundlage für Vektorisierung. NEC hat dieses Konzept bei der SX-Serie immer schon eingesetzt und sieht deshalb entsprechende Wettbewerbsvorteile heute und auch in Zukunft.

Page: 1 2 3 4

Silicon-Redaktion

Recent Posts

Mehr Datenschutz in der Montage

Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…

1 Tag ago

Cyber Resilience Act: Countdown läuft

Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…

1 Tag ago

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

2 Tagen ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

3 Tagen ago

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

3 Tagen ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

3 Tagen ago