Hochleistungsrechner erreichen den Menschen

Ursprünglich von Professor Hans Meuer 1986 in Mannheim für einen kleinen elitären Kreis initiiert, hat sich die Konferenz mit rund 2000 Fachbesuchern aus 50 Ländern zu einer wichtigen Tauschbörse für Neuheiten, Meinungen, Erkenntnissen und Botschaften entwickelt.

Selbst aus Lateinamerika und Südafrika kamen diesmal die Preisträger, die sich einen Award für ihre Rechenleistungen im PetaFlop/s-Bereich (eine Billiarde Rechenoperationen pro Sekunde) abholen konnten. Der Petascale-Bereich ist heute der Standard im High Performance Computing (HPC), und die ersten Experten richten ihren Blick bereits auf den Exa- und sogar Zettascale-Bereich. In diesen luftigen Höhen der Trilliarden Rechenoperationen pro Sekunde wird sich dann endlich das gesamte Weltklima simulieren lassen, hofft die NASA, oder wenigstens eine komplette Zelle, hoffen die Biologen.

Supercomputer werkeln heutzutage überall im Hintergrund, so etwa in der Produktentwicklung: Design, Prototyping usw. “Auf 50 Crashtest-Simulationen kommt nur ein einziger Test mit einem echten Prototypen”, berichtet Uwe Wössner vom Stuttgarter Hochleistungsrechenzentrum (HLRS). “Ausschlaggebend sind dafür einfach die Kosten: Ein Prototyp ist handgemacht, nur einmal verwendbar und daher enorm teuer.” Wohingegen eine Computersimulation nicht nur x-mal wiederholt werden könne, sondern auch sehr viel schneller erstellt und ausgeführt werden könne. “Der Faktor Zeit ist wegen der heutigen schnellen Produktzyklen von höchster Bedeutung”, so Wössner.

Aber auch bei der Visualisierung von Computertomografien leisten Supercomputer gute Arbeit. “So ist etwa die Wartedauer für ein CT-Scanbild von sechs Stunden auf unter eine Minute gesunken”, sagte Intel-Manager Kirk Skaugen. Und weil das so schnell geht, brauche man auch immer weniger Strahlendosen, was die Gesundheit des Patienten schont. Der Patient hat seine vielleicht lebensrettende Diagnose fast schon in Echtzeit.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

Automatisierungssuite für den produzierenden Mittelstand

Fraunhofer hat eine KI-basierte Produktionsüberwachung und -steuerung für mittelständische Industriebetriebe entwickelt.

3 Tagen ago

Homeoffice gerät weiter unter Druck

Jedes fünfte Unternehmen hat seine Regelungen für mobile Heimarbeit abgeschafft, ein weiteres Fünftel will sie…

3 Tagen ago

KI-Agenten: Bedrohungen verstehen und überwinden

Die rasante Entwicklung von KI-Agenten bringt insbesondere Herausforderungen für den Schutz sensibler Daten mit sich.

4 Tagen ago

Q-Day wird zur realen Bedrohung

2020 könnten böswillige Akteure Zugang zu quantengestützten Cyberangriffen haben, warnt Cindy Provin von Utimaco.

4 Tagen ago

KI-Workplace: ChatGPT-Alternative für den Mittelstand

KI-Workplace wird ausschließlich auf eigene Server-Infrastruktur in Rechenzentren in Frankfurt am Main betrieben.

5 Tagen ago

Zukunft des digitalen Zwillings: Process Mining und KI

Der digitale Zwilling einer Organisation bildet reale Geschäftsprozesse virtuell ab und schafft die Grundlage für…

6 Tagen ago