Mit silicon.de im Large Hadron Collider

“You make it and we break it”, so fasst Wolfgang von Rüden, Leiter des CERN openlap, die IT-Strategie des Forschungszentrums zusammen. Also es geht nicht unbedingt nur ums kaputt machen, doch wollen die Forscher nahe der französischen Grenze ein Maximum aus ihrer Hardware herausholen. “Wir reizen die Rechner bis zum Letzten aus”, fährt von Rüden fort.

Dass man am CERN auch durchaus in der Lage ist, zukunftsweisende Technologien, nicht nur in der Physik sondern auch in der Informatik zu schaffen, weiß man seit der Erfindung des Internet. Derzeit betreibt das CERN openlab das weltweit größte Grid, an das Hunderte von anderen Rechenzentren und Forschungseinrichtungen angebunden sind.

Fotogalerie: Mit Intel im Large Hadron Collider

Klicken Sie auf eines der Bilder, um die Fotogalerie zu starten

Und im eigenen Rechenzentrum laufen mehr als 35.000 Prozessoren auf Hochtouren, um die riesigen Datenmengen aus den Teilchenkollisionen des Large Hadron Colliders (LHC) auswerten zu können. So produziert der weltweit größte Teilchenbeschleuniger bis zu 40 Millionen Bilder pro Sekunde. Um die zu speichern, stellt das Rechenzentrum vor Ort 15 Millionen Gigabytes Disk-Speicher und 34 Millionen Gigabytes Tape-Storage bereit. Mit Optical Fibre mit einer Kapazität von 10 Gigabits Pro Sekunde bindet das CERN 11 weitere große Datenzentren an.

Bei allen Superlativen hat man im Rechenzentrum am CERN auch mit gewissen Problemen und Beschränkungen zu kämpfen. So ist die maximale Stromzufuhr des Rechenzentrums mit Kühlung und Ventilation auf 2,9 MW begrenzt.

Daher haben sich die Architekten dieses Rechenzentrums bei der Auswahl der zugrunde gelegten Architektur vor allem am Stromverbrauch orientiert. “Wir haben auch Intels Atom analysiert”, erklärt Sverre Jarp, CTO des CERN openlab gegenüber silicon.de. “Wir waren zwar von der Leistungsfähigkeit der CPU beeindruckt, aber nicht von der Effizienz.” So würde das Chipset mehr Strom brauchen als die CPU selbst, damit war Atom ausgeschieden.

Nun laufen viele Server mit dem Harpertown-Chip, der auf der Core2-Architektur aufsetzt. Künftig wird auch der Nehalem mit seinen neuen Features und einer neuen Strukturbreite eine große Rolle am CERN spielen.

“Wir sind erst am Anfang des Bedarfs, aber wir haben eine großen Vorteil”, erklärt Jarp weiter. Wir haben Millionen von Events, die wir aber relativ trivial parallelisieren können.” Wäre der LHC bereits wie geplant 2005 an den Start gegangen hätte Jarp mit noch größeren Problemen kämpfen müssen. Die Zeit und die stetig voranschreitende Weiterentwicklung haben jedoch für den Forscher gearbeitet: “Wir können jetzt rund 10 Mal mehr Computer-Power realisieren als 2005.”

Silicon-Redaktion

Recent Posts

Oracle: Cloud-Landschaft wird diverser und komplexer

Cloud-Trends 2025: Diversifizierung des Cloud-Marktes, Edge Cloud Transformation und Plattform-Compliance.

2 Stunden ago

Onapsis: KI keine signifikante Bedrohung für ERP-Anwendungen

ERP-Security-Trends 2025: Verzögerungen bei der Cloud-Migration führen zu Sicherheitsnotfällen.

2 Stunden ago

KI als Unterstützung für Psychologen: Wo liegen die Chancen und Risiken?

Der künstlichen Intelligenz würde man eigentlich nicht zutrauen, auch vom Menschen dominierte Bereiche wie die…

1 Tag ago

Pegasystems: Künstliche Intelligenz wird erwachsen

KI-Trends 2025: Verschärfter Wettbewerb, Agentic AI und weltweit wachsender regulatorischer Druck.

1 Tag ago

CRM-Beratung: Wie Unternehmen von einer maßgeschneiderten Lösung profitieren können

Wie eine professionelle CRM-Beratung Unternehmen hilft, Prozesse zu optimieren, Kundenbindung zu stärken und Wettbewerbsvorteile zu…

2 Tagen ago

Cisco: Besseres Zusammenspiel von Mensch und KI

KI-Trends 2025: KI entwickelt sich vom Werkzeug zum Assistenten und Humanoide mit KI-Funktionen.

2 Tagen ago