Der Infrastructure Services Manager des
Und die Datenflut wird weiter anschwellen: “Künftig erwarten wir etwa 400 PB pro Jahr bis 2023 und die Anforderungen an die Rechner werden um den Faktor 50 höher liegen als heute.” Dieser Anstieg erklärt sich damit, dass ab 2017 der LHC mit noch mehr Energie Teilchenkollisionen erzeugen wird, was für noch größere Datenmenten sorgen wird. Bislang ist man in dem Institut mit 11000 Servern klar gekommen. Derzeit wäre es kaum möglich das CERN-Rechenzentrum auf diese Anforderungen hin zu erweitern. Auch die Kühlung hätte dann nicht mehr gewährleistet werden können.
Daher habe man sich dafür entschieden, die Rechenleistungen auszulagern. Ein Standort in Budapest wurde festgelegt, auch deshalb weil es zwischen CERN und dem Zentrum in Budapest mit einer dualen 100GbE-Leitung eine leistungsfähige Verbindung gibt.
Nun müssen die IT-Leiter des CERN jedoch mit den Herausforderungen verschiedener ‘Clouds’ zurechtkommen. Insgesamt vier unterschiedliche OpenStack-Clouds gibt es jetzt am CERM. 7000 Kerne auf etwa 3000 Servern versorgen die größte Cloud. Doch schon im ersten Quartal 2015 werde diese OpenStack-Cloud 150 000 Kerne enthalten.
Dafür setzt man beim CERN heute die OpenStack Nova Cells ein. Damit werden Rechnerressourcen in größere Blöcke zusammengefasst, was die Skalierbarkeit der Anwendung verbessert. Zusammen mit dem Provider und OpenStack-Pionier Rackspace habe man in dem CERN Openlab ein Federated Identity Projekt gestartet. Diesen Code hat CERN nun wieder der Community zur Verfügung gestellt. Derzeit sind etwa 44.000 Nutzer im Identity-Management des CERN registriert. Und jeden Monat kommen rund 400 neue hinzu. “Abhängig von ihrer Rolle in der Organisation haben einige dieser Nutzer Administrationsrechte auch für die private Cloud”, erklärte Bell in einem Blog.
Ältere OpenStack-Versionen bieten zwar LDAP-Support. Doch habe es einiges an Arbeit gekostet, den Support von Active Directory für diese Größenordnungen, die das CERN benötigt, verfügbar zu machen. Das sei ohne die Hilfe der Open-Source-Community nicht möglich gewesen. Heute verarbeiten die verschiedenen Clouds am CERN die Kollisions-Rekonstruktionen auf OpenStack: “Cloud Technology hat es uns erlaubt schneller auf die Bedürfnisse unserer Nutzer zu reagieren und damit die Grenzen der Forschung zu erweitern, ohne dass wir darauf warten müssen, dass Hardware geliefert und konfiguriert wird”, kommentiert Bell.
Die Europäische Organisation für Kernforschung, kurz CERN, hatte im Jahr 2012 das bis dato hypothtische Higgs Boson bestätigt. Dennoch hat das Universum längst noch nicht alle Geheimnisse Preis gegeben, zwei nach wie vor ungeklärte Bereiche etwa sind dunkle Materie und Gravitation. Mit dem Ausbau des Teilchenbeschleunigers hofft man bestimmte Teilchen nachweisen zu können, die das Verständnis der Natur noch vertiefen könnten.
Mit einem Beschleunigungs-Ring mit einer Strecke von 27 Kilometer im Kanton Genf ist der LHC wohl das größte Forschungslabor der Welt. Damit werden Teilchen beschleunigt und dann mit anderen kollidiert. Die riesenhaften Dedektoren machen 40 Millionen Aufnahmen pro Sekunde von einer Kollision. Und damit werden auch 1 Petabyte an Daten pro Sekunde generiert. Die 100 PB, die das Archiv schon jetzt füllt, werden von rund 11000 Servern verarbeitet und die Daten sollen für 20 Jahre gespeichert werden. Derzeit besteht das CERN-Archiv aus 75000 Platten und 45000 Tapes.
Nachdem auch dem CERN nicht unbgerenz IT-Budget zusteht, startete die Forschungseinrichtung im Jahr 2011 mit dem damals noch praktisch experimentellen OpenStack-Release Cactus. Seit dem Grizzly-Release im Jahr 2013 läuft die CERN-Cloud produktiv auf OpenStack. Sämtliche Veränderungen durch CERN am Code sind über github verfügbar.
Bell erklärt daher auf dem Summit in Paris: “Denken Sie daran, wenn Sie dabei helfen, OpenStack zu entwickeln, helfen Sie uns, zu verstehen, wie das Universum arbeitet und aus was es besteht.”
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.