silicon.de: NEC ist schon seit 1987 im High Performance Computing (HPC) aktiv. Wie betrachten Sie die Entwicklungen der letzten 20 Jahre?
Schoenemeyer: NEC hat bereits 1983 mit dem ersten NEC SX Modell einen sehr leistungsfähigen Vektorrechner auf den Markt gebracht. Übrigens war die treibende Kraft beim Design der SX-2-Serie dieselbe Person, die heute maßgeblich an der Konzeption des nächsten japanischen Höchstleistungsrechners (RIKEN) beteiligt ist: Dr. Tadashi Watanabe. NEC hat in den darauf folgenden Jahren in regelmäßigen Abständen neue Generationen der SX-Serie entwickelt und auch sehr erfolgreich verkauft. Heute stehen über 1000 Vektorssysteme bei NEC-Kunden weltweit.
In vielen Fachgebieten ist die numerische Simulation auch aus finanziellen Gründen nicht mehr wegzudenken. Crash-Simulationen, Strömungssimulationen oder auch die Vorhersage physikalischer Phänomene leisten einen ganz wesentlichen Beitrag zur Schonung von Natur und Umwelt. Deshalb hat sich die numerische Simulation heute als drittes Standbein zwischen der puren Theorie auf der einen und dem Experiment auf der anderen Seite etabliert.
Technisch orientierte sich die Entwicklung des High Performance Computing stark an der Entwicklung der Chip-Technologie, die wiederum maßgeblich von den Anforderungen der Massenmärkte bestimmt war und auch heute noch ist. Problematisch ist, dass Architektur-Trends im Markt häufig eher reaktiv entwickelt werden an Stelle einer aktiv betriebenen, erkenntnis-basierten Entwicklung. Viele HPC-Entwicklungen waren meiner Meinung nach eher dadurch getrieben, in erster Linie einen guten Platz in der TOP-500-Liste zu erzielen.
So sind leider heute die vermeintlich interessantesten Systeme diejenigen, die mit dieser Liste und ihren Messkriterien kompatibel sind und dort ganz oben rangieren. Aus diesem Grund wollen auch viele Hersteller nicht davon abweichen technologische Aspekte in den Vordergrund zu rücken, weil dieses Geschäftsmodell mit der Liste nicht vereinbar und in ihren Augen damit nicht tragfähig wäre.
silicon.de: Wo wird die Supercomputerforschung noch hinführen beziehungsweise wie wird sie sich in den nächsten Jahren weiterentwickeln?
Schoenemeyer: Die kommenden Multi- und Many-Core-Chips sind für viele Anwendungen sicher ein hervorragendes Werkzeug, für andere aber nicht. Auf mittlerweile einigen Konferenzen habe ich erfahrene Nutzer getroffen, die sich besorgt über die Weiterentwicklung ihrer technischen Möglichkeiten äußerten im Hinblick auf ihre bestehenden Programme. Wir gehen davon aus, dass die Anwender in den kommenden Jahren auf künftigen Systemen in etwa die gleiche Rechenleistung erzielen werden wie heute. Sie werden zwar viele Kopien rechnen können, solche Entwicklungen sieht man häufig, aber sie werden ein anspruchsvolleres Projekt nicht schneller abarbeiten können, und der Zeitaufwand mag prohibitiv sein. Deshalb glauben wir, dass zusätzlich zu den Produkten, die auf Standardkomponenten basieren, weitere, auf die hohen Anforderungen speziell abgestimmte Produkte angeboten werden müssen, und dass dafür auch heute schon ein Markt existiert.
Auch wird die technologische Herausforderung zunehmend auf den Nutzer abgewälzt, der sich mit immer komplexeren, in dem Aspekt der Parallelität immer vielschichtigeren Maschinen auseinandersetzen muss, wobei die Entwicklung der Software-Werkzeuge in den letzten 20 Jahre viel zu kurz gekommen ist.
Eines ist aber jetzt schon sichtbar: Datenparallelität als eine mathematisch typische Erscheinung in wissenschaftlichen und Ingenieuranwendungen wird ein wichtiges Mittel sein, um gewisse technologische Hürden, deren Elimination nicht zu erwarten ist, zu bewältigen. Datenparallelität ist aber auch die Grundlage für Vektorisierung. NEC hat dieses Konzept bei der SX-Serie immer schon eingesetzt und sieht deshalb entsprechende Wettbewerbsvorteile heute und auch in Zukunft.
Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…
Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…
Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…
Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…
Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…