IBM setzt bei Supercomputing auf den Mittelstand

“Die Kunden im High Performance Computing (HPC) sind wie Formel-1-Fahrer – sie stellen technische Wertevergleiche an, kennen ihre Bedürfnisse sehr genau und skalieren fast nur nach oben; sie werden immer nach den besten Werten greifen, wie ein Rennfahrer nach der stärksten und leistungsfähigsten Maschine”, sagte Klaus Gottschalk, Senior Consultant und IBM System Architekt Hardware, gegenüber silicon.de.

Einer davon ist sicherlich das Rechenzentrum Jülich, wo jüngste Forschungen in der Quantenchromomechanik erst durch den Einsatz von Supercomputern möglich geworden seien. Hier stehen, ihm zufolge, bereits mehrere Systeme der Blue-Gene-Reihe. “Kunden wie diese helfen uns durch ihre Erfahrungen bei der Entwicklung, auch wenn wir uns die eigene Entwicklungsarbeit natürlich nicht dominieren lassen”, deutete er an. Für solche Kunden oder Zentren mit ähnlichen Ansprüchen sei auch der neue ‘Blue Gene P’ gemacht, der die Petaflops-Marke erreichen soll. Und es gebe bereits erste Gespräche mit Interessierten, sagte er. Doch er konnte derzeit noch keine Informationen geben, wer sich konkret für den neuen Riesen interessiert. Generell würden solche Systeme natürlich nicht “vom Regal weg” verkauft, stellte er klar. Doch er könne sich vorstellen, dass auch ein solcher Petaflop-Rechner seinen Abnehmer finden werde.

Das zweite europäische HPC-Zentrum ist aus Sicht des Konzerns ein guter IBM-Kunde in Barcelona, wo ein Forschungsrechenzentrum der Universität in einem weiträumigen, alten Kathedralenbau betrieben wird. Hier stehen vor allem Blade-Architekturen. Und von hier aus gebe es möglicherweise einiges Interesse an etwas, was Gottschalk selbst mit großem Wohlwollen verfolgt: Der Einsatz von ‘Cell’-Chips für Cluster. “Sicherlich sind wir hier noch auf Spielkonsolen-Niveau, aber die Möglichkeiten weisen in die Richtung, dass eines Tages auch größere Systeme mit Cell gepowert werden könnten; wir lassen heute schon die Algorithmen in diese Richtung testen”, ließ er durchblicken. Die Erfahrung mit den Blade-Architekturen trage sicherlich dazu bei, dass Barcelona die IBM-Schritte in diese Richtung genauer verfolge. In Jülich seien die Aufgaben ganz andere und die größeren, Powerchip-getakteten Maschinen gefragt.

“Das ist einer der Gründe, warum wir an unserer eigenen Prozessorarchitektur festhalten – zum einen ist diese Kompetenz schwer zu erringen; zum anderen gibt es durchaus ganz signifikante Unterschiede zwischen den Prozessoren”, sagte Gottschlak. “Dies gilt auch und gerade im HPC. Auch wenn hier die Größenordnungen anders sind als beim Desktop.” Er kennt die Argumente, dass sich die HPC-Prozessoren heute nur noch minimal unterscheiden würden und widersprach diesem marktgängigen Argument entschieden.

Page: 1 2

Silicon-Redaktion

Recent Posts

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

In Deutschland hat das Zahlungsverhalten 2024 eine deutliche Entwicklung hin zu Sofortüberweisungen und Instant Payment…

31 Minuten ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

2 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

3 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

4 Tagen ago

KI-Bluff bei AIOps erkennen

Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…

4 Tagen ago