Categories: Cloud

Linux Foundation startet Super-Computer-Initiative

Die Linux Foundation startet mit dem OpenHPC Collaborative Project eine Initiative, das die Entwicklung eines quelloffenen Frameworks für Supercomputer beschleunigen soll. Das Projekt setzt sich aus Upstream-Projekt-Komponenten, Tools und Interconnects zusammen, die dann die Grundlage für einen Software-Stack bilden sollen. Eine Sammlung von validierten und integrierten HPC-Komponenten soll dann einen Referenz-HPC-Software-Stack für Entwickler liefern. OpenHPC soll dann für verschiedene Einsatzzwecke vielfältige Konfigurationen und eine hohe Skalierbarkeit ermöglichen.

Unternehmen wie Altair, Atos, Cray, Dell, Fujitsu, HPE, Intel, Lenovo, NEC, Suse sowie weitere Hersteller werden sich daran beteiligen. Aber auch Anwender wie etwa das Barcelona Supercomputing Center, oder die beiden deutschen Einrichtungen Jülich und das Münchner Leibniz Supercomputing Centre, das Lawrence Berkeley National Laboratory, Los Alamos National Laboratory oder das Oak Ridge National Laboratory arbeiten an dem Projekt mit.

Die Linux Foundation verspricht sich damit ein stabiles Umfeld für Tests und Validierungen, Continous Integration, Source Control, Bug Tracking, Collaboration Tools sowie Nutzer- und Entwickler Foren. Dadurch sollen schlussendlich die Kosten für die Implementierung und den Betrieb einer Supercomputer-Installation sinken. Und auf diese Art werde ein robuster und vielseitiger Open Source Software Stack entstehen, weil Community-Mitglieder aus verschiedenen Bereichen Tests und Validierungen in unterschiedlichen Bereichen durchführen können.

JUQUEEN: Das Rechenzentrum Jülich ist nun Mitglied im OpenHPC Project. (Quelle: IBM)

Zudem werden über dieses Framework Gruppen von Komponenten und Software entwickelt, die ständig daraufhin getestet werden, die optimale Performance zu liefern. Derzeit konzentriert sich das Projekt auf Tests gegen CentOS 7.1 und das Extra Packackages for Enterprise Linux Repository (EPEL). Vor allem im universitären Umfeld sind HPC-Projekte mit sehr speziellen Anforderungen verbunden. “Mit besonderen Bedürfnisse und besonderen Anforderungen an die parallele Runtime, bleibt Software eine der größten Herausforderungen für die Verbreitung von HPC”, heißt es in einer Mitteilung der Linux Foundation. Ein Problem ist, dass HPC-Systeme sehr speziell sind und mehr oder weniger einzigartig sind, daher müssen Anwendungen nicht selten speziell an die Supercomputer angepasst werden, auf denen sie laufen sollen.

Wasserkühlung für SuperMuc

Bild 1 von 15

SuperMUC
SuperMUC im Leibnitz Rechenzentrum in Garching nahe München. Das LRZ ist das Rechenzentrum der Münchner Universitäten und der Bayerischen Akademie der Wissenschaften (BAdW) und betreut das wissenschaftliche Datennetz in München. Es liefert verschiedene Datenservices und betreibt High-End-Computing-Einrichtungen für die Wissenschaftsgemeinschaft in Deutschland und darüber hinaus. Das LRZ unterstützt ein breites Spektrum wissenschaftlicher Aufgaben von Kosmologie über die Entstehung des Universums bis hin zu Seismologie und Erdbebenvorhersage.

“Der OpenHPC Software Stack wird den Aufwand, Standard HPC-Komponenten für unsere HPC-Systeme zu bauen und zu testen deutlich reduzieren. Daher werden wir diese kollaborativen und offenen Ansatz sehr stark unterstützen”, erklärt Dr. Herbert Huber, Chef der HPC-Abteilung des Leibniz Rechenzentrums.

Dass diese Initiative im Dunstkreis der Linux Foundation entsteht, kommt wenig überraschend. Die Liste Top500.org führt lediglich sechs Supercomputer, die nicht mit Linux als Betriebssystem laufen. Die sechs Systeme verwenden ausschließlich Unix.

Darüber hinaus plant die Initiative, Abstraktions-Schnittstellen zwischen Schlüssel-Komponenten zu identifizieren und zu entwickeln, um die Modularität und Austauschbarkeit weiter zu verbessern. Wie unter Linux auch werden die Entwicklungsergebnisse frei zugänglich sein.

“Der Einsatz von Open Source Software ist ein zentraler Bestandteil von HPC, aber der Mangel einer vereinheitlichten Community über die wichtigsten Stakeholder wie den akademsichen Einrichtungen, den Unternehmen für das Workload Management, Software und Hardware Hersteller hinweg – hat für eine duplizierung des Aufwands gesorgt und damit die Eintrittsbarrieren höher gelegt”, kommentiert Jim Zemlin, Executiv Director der Linux Foundation. “OpenHPC wird daher als neutrales Forum die Entwicklung eines Open Source Frameworks ermöglichen, das ein mannigfaltiges Set von Cluster-Umgebungen ermöglicht.”

Tipp: Wie gut kennen Sie sich mit Open-Source aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de

Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

2 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

2 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

23 Stunden ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

1 Tag ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago