Categories: Cloud

Linux Foundation startet Super-Computer-Initiative

Die Linux Foundation startet mit dem OpenHPC Collaborative Project eine Initiative, das die Entwicklung eines quelloffenen Frameworks für Supercomputer beschleunigen soll. Das Projekt setzt sich aus Upstream-Projekt-Komponenten, Tools und Interconnects zusammen, die dann die Grundlage für einen Software-Stack bilden sollen. Eine Sammlung von validierten und integrierten HPC-Komponenten soll dann einen Referenz-HPC-Software-Stack für Entwickler liefern. OpenHPC soll dann für verschiedene Einsatzzwecke vielfältige Konfigurationen und eine hohe Skalierbarkeit ermöglichen.

Unternehmen wie Altair, Atos, Cray, Dell, Fujitsu, HPE, Intel, Lenovo, NEC, Suse sowie weitere Hersteller werden sich daran beteiligen. Aber auch Anwender wie etwa das Barcelona Supercomputing Center, oder die beiden deutschen Einrichtungen Jülich und das Münchner Leibniz Supercomputing Centre, das Lawrence Berkeley National Laboratory, Los Alamos National Laboratory oder das Oak Ridge National Laboratory arbeiten an dem Projekt mit.

Die Linux Foundation verspricht sich damit ein stabiles Umfeld für Tests und Validierungen, Continous Integration, Source Control, Bug Tracking, Collaboration Tools sowie Nutzer- und Entwickler Foren. Dadurch sollen schlussendlich die Kosten für die Implementierung und den Betrieb einer Supercomputer-Installation sinken. Und auf diese Art werde ein robuster und vielseitiger Open Source Software Stack entstehen, weil Community-Mitglieder aus verschiedenen Bereichen Tests und Validierungen in unterschiedlichen Bereichen durchführen können.

JUQUEEN: Das Rechenzentrum Jülich ist nun Mitglied im OpenHPC Project. (Quelle: IBM)

Zudem werden über dieses Framework Gruppen von Komponenten und Software entwickelt, die ständig daraufhin getestet werden, die optimale Performance zu liefern. Derzeit konzentriert sich das Projekt auf Tests gegen CentOS 7.1 und das Extra Packackages for Enterprise Linux Repository (EPEL). Vor allem im universitären Umfeld sind HPC-Projekte mit sehr speziellen Anforderungen verbunden. “Mit besonderen Bedürfnisse und besonderen Anforderungen an die parallele Runtime, bleibt Software eine der größten Herausforderungen für die Verbreitung von HPC”, heißt es in einer Mitteilung der Linux Foundation. Ein Problem ist, dass HPC-Systeme sehr speziell sind und mehr oder weniger einzigartig sind, daher müssen Anwendungen nicht selten speziell an die Supercomputer angepasst werden, auf denen sie laufen sollen.

Wasserkühlung für SuperMuc

Bild 1 von 15

SuperMUC
SuperMUC im Leibnitz Rechenzentrum in Garching nahe München. Das LRZ ist das Rechenzentrum der Münchner Universitäten und der Bayerischen Akademie der Wissenschaften (BAdW) und betreut das wissenschaftliche Datennetz in München. Es liefert verschiedene Datenservices und betreibt High-End-Computing-Einrichtungen für die Wissenschaftsgemeinschaft in Deutschland und darüber hinaus. Das LRZ unterstützt ein breites Spektrum wissenschaftlicher Aufgaben von Kosmologie über die Entstehung des Universums bis hin zu Seismologie und Erdbebenvorhersage.

“Der OpenHPC Software Stack wird den Aufwand, Standard HPC-Komponenten für unsere HPC-Systeme zu bauen und zu testen deutlich reduzieren. Daher werden wir diese kollaborativen und offenen Ansatz sehr stark unterstützen”, erklärt Dr. Herbert Huber, Chef der HPC-Abteilung des Leibniz Rechenzentrums.

Dass diese Initiative im Dunstkreis der Linux Foundation entsteht, kommt wenig überraschend. Die Liste Top500.org führt lediglich sechs Supercomputer, die nicht mit Linux als Betriebssystem laufen. Die sechs Systeme verwenden ausschließlich Unix.

Darüber hinaus plant die Initiative, Abstraktions-Schnittstellen zwischen Schlüssel-Komponenten zu identifizieren und zu entwickeln, um die Modularität und Austauschbarkeit weiter zu verbessern. Wie unter Linux auch werden die Entwicklungsergebnisse frei zugänglich sein.

“Der Einsatz von Open Source Software ist ein zentraler Bestandteil von HPC, aber der Mangel einer vereinheitlichten Community über die wichtigsten Stakeholder wie den akademsichen Einrichtungen, den Unternehmen für das Workload Management, Software und Hardware Hersteller hinweg – hat für eine duplizierung des Aufwands gesorgt und damit die Eintrittsbarrieren höher gelegt”, kommentiert Jim Zemlin, Executiv Director der Linux Foundation. “OpenHPC wird daher als neutrales Forum die Entwicklung eines Open Source Frameworks ermöglichen, das ein mannigfaltiges Set von Cluster-Umgebungen ermöglicht.”

Tipp: Wie gut kennen Sie sich mit Open-Source aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

1 Tag ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago