Am CERN, der europäische Organisation für Kernforschung, sollen in den nächsten drei Monaten 1000 parallele virtuelle Maschinen die in dem Forschungszentrum generierten Daten verarbeiten. Über verbundene Cluster-Speicher stellt die Telekom über den auf der CeBIT frisch vorgestellten Service zudem über 500 TB Speicher bereit. T-Systems stellt zudem mindestens 10 Gbit/s Bandbreite sowie die Möglichkeit des Anschlusses an deutsche und europäische Forschungsnetze bereit.
Das Projekt baut auf der Helix Nebula-Initiative auf. Unternehmen wie Atos, CloudSigma, Cloudeo, T-Systems und Forschungseinrichtungen wie ESA, DESY oder CERN entwickeln dabei Grundlagen für Standardschnittstellen, SLAs, Konnektivität oder auch Beschaffungsmethoden im Wissenschaftsumfeld.
Der Testlauf solle zeigen, ob die Verarbeitung von wissenschaftlichen Daten auch über die Cloud-Services eines Standardanbieters abgebildet werden kann. Dafür wird das Projekt mit einer Benchmarkstudie begleitet. Dabei sollen vor allem Inbetriebnahme, Leistungsfähigkeit und das Reporting der Infrastruktur getestet werden. Zur Akzeptanzförderung und Stärkung des Vertrauens in Cloud-Angebote in Europa sollen die Ergebnisse der Zusammenarbeit veröffentlicht werden.
Das Genfer CERN ist einer der frühsten Nutzer der Cloud-Technologie OpenStack. Nun bekommen die Forscher neben einer nutzerfreundlichen Oberfläche auch verschieden OpenStack-APIs bereitgestellt. Damit lassen sich die Services auf die Bedürfnisse der Forscher anpassen.
Dem CERN stehen für die Lösung eine benutzerfreundliche Oberfläche sowie OpenStack-APIs zur Verfügung, so dass maximale Kundenanpassung und Flexibilität gewährleistet sind. Das Kernforschungsinstitut wird das Projekt mit einer Benchmarkstudie zu Inbetriebnahme, Leistung und Reporting begleiten.
Mit dem Projekt will die Telekom dynamische Cloud-Services entwickeln, in denen öffentliche und kommerzielle E-Infrastrukturen kombiniert werden. Die zusammen mit dem CERN angestrebte Lösung unterliege den europäischen Vorschriften für Datenschutz- und Datenverarbeitung. Ziel ist es, die Forschung über Cloud-Infrastrukturen zu beschleunigen. Am Ende soll eine von der EU geförderte inderdisiziplinäre Wissenschaftscloud stehen.
“Wir freuen uns über die Zusammenarbeit mit T-Systems. Wir möchten Erfahrungen sammeln, wie wir kommerzielle Cloud-Dienste noch besser praktisch in unsere physikalischen Abläufe einfügen und weitere Ressourcen in unsere private cloud integrieren können”, kommentiert Helge Meinhard, Mitarbeiter der IT am CERN.
In erster Linie geht es um die Verarbeitung von Daten aus dem Large Hadron Collider am CERN und um die beiden Experimente ATLAS und CMS über die Daten über die Kollisionen von Protonen gesammelt werden, um damit die letzten Geheimnisse des Universums zu entschlüsseln. Derzeit werden diese Daten in einem großen verteilten System, dem ATLAS Distributed Computing Environment (ADC) verarbeitet, wie es in einer Mitteilung von Helix Nebula heißt http://www.helix-nebula.eu/usecases/cern-lhc-use-case . Und dieses System soll zusammen mit einer Analytics-Lösung nun auch in die Cloud ausgelagert werden.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.