“You make it and we break it”, so fasst Wolfgang von Rüden, Leiter des CERN openlap, die IT-Strategie des Forschungszentrums zusammen. Also es geht nicht unbedingt nur ums kaputt machen, doch wollen die Forscher nahe der französischen Grenze ein Maximum aus ihrer Hardware herausholen. “Wir reizen die Rechner bis zum Letzten aus”, fährt von Rüden fort.
Dass man am CERN auch durchaus in der Lage ist, zukunftsweisende Technologien, nicht nur in der Physik sondern auch in der Informatik zu schaffen, weiß man seit der Erfindung des Internet. Derzeit betreibt das CERN openlab das weltweit größte Grid, an das Hunderte von anderen Rechenzentren und Forschungseinrichtungen angebunden sind.
Und im eigenen Rechenzentrum laufen mehr als 35.000 Prozessoren auf Hochtouren, um die riesigen Datenmengen aus den Teilchenkollisionen des Large Hadron Colliders (LHC) auswerten zu können. So produziert der weltweit größte Teilchenbeschleuniger bis zu 40 Millionen Bilder pro Sekunde. Um die zu speichern, stellt das Rechenzentrum vor Ort 15 Millionen Gigabytes Disk-Speicher und 34 Millionen Gigabytes Tape-Storage bereit. Mit Optical Fibre mit einer Kapazität von 10 Gigabits Pro Sekunde bindet das CERN 11 weitere große Datenzentren an.
Bei allen Superlativen hat man im Rechenzentrum am CERN auch mit gewissen Problemen und Beschränkungen zu kämpfen. So ist die maximale Stromzufuhr des Rechenzentrums mit Kühlung und Ventilation auf 2,9 MW begrenzt.
Daher haben sich die Architekten dieses Rechenzentrums bei der Auswahl der zugrunde gelegten Architektur vor allem am Stromverbrauch orientiert. “Wir haben auch Intels Atom analysiert”, erklärt Sverre Jarp, CTO des CERN openlab gegenüber silicon.de. “Wir waren zwar von der Leistungsfähigkeit der CPU beeindruckt, aber nicht von der Effizienz.” So würde das Chipset mehr Strom brauchen als die CPU selbst, damit war Atom ausgeschieden.
Nun laufen viele Server mit dem Harpertown-Chip, der auf der Core2-Architektur aufsetzt. Künftig wird auch der Nehalem mit seinen neuen Features und einer neuen Strukturbreite eine große Rolle am CERN spielen.
“Wir sind erst am Anfang des Bedarfs, aber wir haben eine großen Vorteil”, erklärt Jarp weiter. Wir haben Millionen von Events, die wir aber relativ trivial parallelisieren können.” Wäre der LHC bereits wie geplant 2005 an den Start gegangen hätte Jarp mit noch größeren Problemen kämpfen müssen. Die Zeit und die stetig voranschreitende Weiterentwicklung haben jedoch für den Forscher gearbeitet: “Wir können jetzt rund 10 Mal mehr Computer-Power realisieren als 2005.”
Die Vernetzung in der Industrie optimiert mit KI Prozesse und reduziert mit Predictive Maintenance ungeplante…
Enterprise AI Maturity Index von ServiceNow: Im Durchschnitt erreichen Unternehmen nur einen KI-Reifegrad von 44…
Wer auf Wechselmedien – wie USB-Laufwerke – angewiesen ist, muss wachsam bleiben, da diese Geräte…
Das Thema künstliche Intelligenz wird immer relevanter. Diese Technologie hat Einfluss auf Arbeitsweisen, Politik und…
SAP S/4HANA-Transformationen sind äußerst komplex und verlaufen oft nicht wie geplant – oder scheitern sogar…
Der Black Friday, der in den USA traditionell am Freitag nach Thanksgiving gefeiert wird, hat…