Categories: Cloud

Linux Foundation startet Super-Computer-Initiative

Die Linux Foundation startet mit dem OpenHPC Collaborative Project eine Initiative, das die Entwicklung eines quelloffenen Frameworks für Supercomputer beschleunigen soll. Das Projekt setzt sich aus Upstream-Projekt-Komponenten, Tools und Interconnects zusammen, die dann die Grundlage für einen Software-Stack bilden sollen. Eine Sammlung von validierten und integrierten HPC-Komponenten soll dann einen Referenz-HPC-Software-Stack für Entwickler liefern. OpenHPC soll dann für verschiedene Einsatzzwecke vielfältige Konfigurationen und eine hohe Skalierbarkeit ermöglichen.

Unternehmen wie Altair, Atos, Cray, Dell, Fujitsu, HPE, Intel, Lenovo, NEC, Suse sowie weitere Hersteller werden sich daran beteiligen. Aber auch Anwender wie etwa das Barcelona Supercomputing Center, oder die beiden deutschen Einrichtungen Jülich und das Münchner Leibniz Supercomputing Centre, das Lawrence Berkeley National Laboratory, Los Alamos National Laboratory oder das Oak Ridge National Laboratory arbeiten an dem Projekt mit.

Die Linux Foundation verspricht sich damit ein stabiles Umfeld für Tests und Validierungen, Continous Integration, Source Control, Bug Tracking, Collaboration Tools sowie Nutzer- und Entwickler Foren. Dadurch sollen schlussendlich die Kosten für die Implementierung und den Betrieb einer Supercomputer-Installation sinken. Und auf diese Art werde ein robuster und vielseitiger Open Source Software Stack entstehen, weil Community-Mitglieder aus verschiedenen Bereichen Tests und Validierungen in unterschiedlichen Bereichen durchführen können.

JUQUEEN: Das Rechenzentrum Jülich ist nun Mitglied im OpenHPC Project. (Quelle: IBM)

Zudem werden über dieses Framework Gruppen von Komponenten und Software entwickelt, die ständig daraufhin getestet werden, die optimale Performance zu liefern. Derzeit konzentriert sich das Projekt auf Tests gegen CentOS 7.1 und das Extra Packackages for Enterprise Linux Repository (EPEL). Vor allem im universitären Umfeld sind HPC-Projekte mit sehr speziellen Anforderungen verbunden. “Mit besonderen Bedürfnisse und besonderen Anforderungen an die parallele Runtime, bleibt Software eine der größten Herausforderungen für die Verbreitung von HPC”, heißt es in einer Mitteilung der Linux Foundation. Ein Problem ist, dass HPC-Systeme sehr speziell sind und mehr oder weniger einzigartig sind, daher müssen Anwendungen nicht selten speziell an die Supercomputer angepasst werden, auf denen sie laufen sollen.

Wasserkühlung für SuperMuc

Bild 1 von 15

SuperMUC
SuperMUC im Leibnitz Rechenzentrum in Garching nahe München. Das LRZ ist das Rechenzentrum der Münchner Universitäten und der Bayerischen Akademie der Wissenschaften (BAdW) und betreut das wissenschaftliche Datennetz in München. Es liefert verschiedene Datenservices und betreibt High-End-Computing-Einrichtungen für die Wissenschaftsgemeinschaft in Deutschland und darüber hinaus. Das LRZ unterstützt ein breites Spektrum wissenschaftlicher Aufgaben von Kosmologie über die Entstehung des Universums bis hin zu Seismologie und Erdbebenvorhersage.

“Der OpenHPC Software Stack wird den Aufwand, Standard HPC-Komponenten für unsere HPC-Systeme zu bauen und zu testen deutlich reduzieren. Daher werden wir diese kollaborativen und offenen Ansatz sehr stark unterstützen”, erklärt Dr. Herbert Huber, Chef der HPC-Abteilung des Leibniz Rechenzentrums.

Dass diese Initiative im Dunstkreis der Linux Foundation entsteht, kommt wenig überraschend. Die Liste Top500.org führt lediglich sechs Supercomputer, die nicht mit Linux als Betriebssystem laufen. Die sechs Systeme verwenden ausschließlich Unix.

Darüber hinaus plant die Initiative, Abstraktions-Schnittstellen zwischen Schlüssel-Komponenten zu identifizieren und zu entwickeln, um die Modularität und Austauschbarkeit weiter zu verbessern. Wie unter Linux auch werden die Entwicklungsergebnisse frei zugänglich sein.

“Der Einsatz von Open Source Software ist ein zentraler Bestandteil von HPC, aber der Mangel einer vereinheitlichten Community über die wichtigsten Stakeholder wie den akademsichen Einrichtungen, den Unternehmen für das Workload Management, Software und Hardware Hersteller hinweg – hat für eine duplizierung des Aufwands gesorgt und damit die Eintrittsbarrieren höher gelegt”, kommentiert Jim Zemlin, Executiv Director der Linux Foundation. “OpenHPC wird daher als neutrales Forum die Entwicklung eines Open Source Frameworks ermöglichen, das ein mannigfaltiges Set von Cluster-Umgebungen ermöglicht.”

Tipp: Wie gut kennen Sie sich mit Open-Source aus? Überprüfen Sie Ihr Wissen – mit 15 Fragen auf silicon.de

Redaktion

Recent Posts

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

15 Stunden ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

19 Stunden ago

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

20 Stunden ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

2 Tagen ago

Rechenzentrumsnetzwerke als Schlüssel für Desaster Recovery

Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.

2 Tagen ago

Cybersecurity mit KI: Strategischer Vorteil oder Sicherheitsrisiko?

Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…

2 Tagen ago