Stanford steckt Millionen in parallele Programmierung

Es setzt unter anderem auf automatisierte Codeoptimierung, um die Möglichkeiten der Multi-Core-CPUs auszuschöpfen. Die Computerwissenschaftler dürfen bei ihrer Forschung auf breite Unterstützung bauen, als Partner aus der Industrie nennt die Universität Stanford Sun, AMD, Nvidia, IBM, Hewlett-Packard und Intel.

Mehrere Recheneinheiten in einem Computer waren lange die Domäne der Supercomputer, etwa durch Dual- und Quad-Core-Prozessoren haben sie nun auch Einzug im Consumer-Bereich gehalten. Doch die Software hinkt der Hardware hinterher, nur wenige Programmierer kennen geeignete Programmiertechniken. “Parallele Programmierung ist vielleicht das größte Problem der heutigen Computerwissenschaft”, meint Bill Dally, Chairman des Computer Science Department in Stanford. Die Universität ortet ein mögliches Hindernis für die weitere Entwicklung der Computerindustrie. “Wir müssen Wege finden, dieses Problem zu überwinden, damit die jüngsten Fortschritte in der Hardware weiterhin Vorteile für die Öffentlichkeit und die Wirtschaft bringen können”, so Stanfords President John Hennessy.

Durch die Arbeit am PPL soll Abhilfe geschaffen werden. Ein wesentlicher Forschungsbereich werden dabei neuartige Programmiersprachen sein, die Entwickler bei der Ausschöpfung der Möglichkeiten paralleler Systeme helfen sollen. Insbesondere sollen Systeme in der Lage sein, Code automatisch für parallele Verarbeitung zu optimieren. “Es reicht nicht, einfach mehrere Kerne in einem Chip zu haben. Es muss auch leichter gemacht werden, Software so zu übersetzen, dass sie diese Parallelismen nutzt”, betont der Computerwissenschaftler Kunle Olukotun, der zum Leiter des PPL bestellt wurde. Er äußert die Hoffnung, dass durch die direkte Zusammenarbeit mit Industriepartnern die Früchte der Arbeit am PPL auch wirklich den Markt erreichen und damit echte Wirkung haben können.

Das dreijährige, sechs Millionen Dollar schwere Projekt am PPL in Stanford ist keineswegs das einzige, das sich mit dem Problem der parallelen Programmierung auch und gerade für den Massenmarkt beschäftigt. Die Industrie arbeitet mit diversen Forschungseinrichtungen weltweit zusammen. So hat etwa ein Intel-Sprecher im März betont, dass das Unternehmen auch mit einigen Einrichtungen in Deutschland zusammenarbeite. “Wenn wir mehrere und verschiedene Zugänge zum Problem haben, finden wir auch eher eine Lösung”, sieht Stanfords Olukotun die vielseitigen Forschungsbemühungen positiv.

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

1 Tag ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

1 Tag ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

3 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

4 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

5 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

5 Tagen ago