Neue Compiler für Hochleistungsrechner

Noch vor wenigen Jahren konnte man davon ausgehen, dass Computerprogramme mit jeder neuen Rechnergenerationen schneller wurden. Mit den immer kleineren Prozessoren stieß man jedoch an physikalische Grenzen, so dass die Chipindustrie dazu überging, die Rechner mit mehreren Prozessorkernen auszustatten. Für besonders rechenintensive Aufgaben werden zudem tausende Computer in Hochleistungsnetzwerken zusammengeschlossen.


Sebastian Hack, Bild: Uni des Saarlandes

“Das Problem dabei ist, dass die Programmiersprachen und Werkzeuge, mit denen wir die neuen Rechnerarchitekturen programmieren, auf rund vierzig Jahre alten Rechenmodellen beruhen”, sagt Sebastian Hack, Professor für Programmierung der Universität des Saarlandes und Forscher am Intel Visual Computing Institute der Saar-Uni. “Damals haben die Computer aber noch nicht mehrere Millionen Aufgaben parallel berechnen können.”

Nach Meinung von Hack nutzen die Programme die Möglichkeit der Hardware, viele Probleme gleichzeitig zu bearbeiten, heute noch viel zu wenig aus. Oftmals entstünden auch Engpässe und Flaschenhälse im System, weil Daten nicht schnell genug aus den zahlreichen Arbeitsspeichern geladen werden oder schon gelöste Aufgaben auf die Weiterbearbeitung warten.

“Man stelle sich vor, ein Kochrezept wird nicht nur von einem Koch befolgt, sondern soll gleichzeitig von zehn Köchen in einer Küche umgesetzt werden. Da muss auch erst geklärt werden, wer welchen Kochtopf benutzen darf und ob die Vorräte für alle ausreichen”, so der Informatiker. Bei zehn Arbeitsschritten eines Kochrezeptes ginge das noch einfach, nicht aber bei Hundert Millionen Rechenaufgaben, die etwa für die Vorhersage eines Hurrikans in Sekundenschnelle gelöst werden müssten.

Fotogalerie: Visual Computing im Saarland

Klicken Sie auf eines der Bilder, um die Fotogalerie zu starten

Die Computersimulation von physikalischen Modellen, die etwa der Medizin und Pharmazie wichtige Erkenntnisse bringen, benötigt daher noch viel Handarbeit. So muss die Simulationssoftware individuell an die Anforderungen der Hochleistungsrechner angepasst werden. “Hier setzt unser Forschungsprojekt an: Wir wollen durch neue Methoden und Werkzeuge diese Anpassung vereinfachen und zum Teil automatisieren. Da die zu lösenden Aufgaben meist sehr komplex sind, werden wir den Programmierer nicht ersetzen können, wir werden aber seine Arbeit erleichtern und beschleunigen können”, meint Hack.

Im Visier haben die Forscher dabei vor allem die Compiler, die vom Menschen geschriebene Programme in eine dem Rechner verständliche Sprache übersetzen. “Es ist nahezu unmöglich, die verfügbare Rechenleistung automatisch auszunutzen. Das erfordert normalerweise einen mühsamen und kostspieligen manuellen Prozess, dessen Ergebnisse man mit einer neuen Rechnergeneration wieder wegwerfen muss. Genau diesen Prozess wollen wir effizienter gestalten, in dem wir dem Programmierer die richtigen Werkzeuge an die Hand geben.”

Am Projekt ‘Effiziente und offene Compiler Umgebung für semantisch annotierte parallele Simulation’ (ECOUSS) arbeiten neben der Gruppe von Hack auch Wissenschaftler im Team von Computergraphik-Professor Philipp Slusallek am Intel Visual Computing Institute und am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) mit. Außerdem sind Forscher der Universität Mainz und des Karlsruher Institut für Technologie (KIT) beteiligt.

Die Federführung hat das Höchstleistungsrechenzentrum der Universität Stuttgart (HLRS). Neben den Forschungsinstituten sind Industriepartner beteiligt, so Cray Computer Deutschland, das Pharma-Unternehmen Böhringer Ingelheim sowie die Firma RTT, die mit der Raytracing-Technologie hoch auflösende Computergraphik erstellt. Das Projekt ist auf drei Jahre angelegt und wird mit 1,69 Millionen Euro vom Bundesforschungsministerium gefördert.

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

4 Tagen ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

4 Tagen ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

6 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

7 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

1 Woche ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

1 Woche ago