Mit silicon.de im Large Hadron Collider

“You make it and we break it”, so fasst Wolfgang von Rüden, Leiter des CERN openlap, die IT-Strategie des Forschungszentrums zusammen. Also es geht nicht unbedingt nur ums kaputt machen, doch wollen die Forscher nahe der französischen Grenze ein Maximum aus ihrer Hardware herausholen. “Wir reizen die Rechner bis zum Letzten aus”, fährt von Rüden fort.

Dass man am CERN auch durchaus in der Lage ist, zukunftsweisende Technologien, nicht nur in der Physik sondern auch in der Informatik zu schaffen, weiß man seit der Erfindung des Internet. Derzeit betreibt das CERN openlab das weltweit größte Grid, an das Hunderte von anderen Rechenzentren und Forschungseinrichtungen angebunden sind.

Fotogalerie: Mit Intel im Large Hadron Collider

Klicken Sie auf eines der Bilder, um die Fotogalerie zu starten

Und im eigenen Rechenzentrum laufen mehr als 35.000 Prozessoren auf Hochtouren, um die riesigen Datenmengen aus den Teilchenkollisionen des Large Hadron Colliders (LHC) auswerten zu können. So produziert der weltweit größte Teilchenbeschleuniger bis zu 40 Millionen Bilder pro Sekunde. Um die zu speichern, stellt das Rechenzentrum vor Ort 15 Millionen Gigabytes Disk-Speicher und 34 Millionen Gigabytes Tape-Storage bereit. Mit Optical Fibre mit einer Kapazität von 10 Gigabits Pro Sekunde bindet das CERN 11 weitere große Datenzentren an.

Bei allen Superlativen hat man im Rechenzentrum am CERN auch mit gewissen Problemen und Beschränkungen zu kämpfen. So ist die maximale Stromzufuhr des Rechenzentrums mit Kühlung und Ventilation auf 2,9 MW begrenzt.

Daher haben sich die Architekten dieses Rechenzentrums bei der Auswahl der zugrunde gelegten Architektur vor allem am Stromverbrauch orientiert. “Wir haben auch Intels Atom analysiert”, erklärt Sverre Jarp, CTO des CERN openlab gegenüber silicon.de. “Wir waren zwar von der Leistungsfähigkeit der CPU beeindruckt, aber nicht von der Effizienz.” So würde das Chipset mehr Strom brauchen als die CPU selbst, damit war Atom ausgeschieden.

Nun laufen viele Server mit dem Harpertown-Chip, der auf der Core2-Architektur aufsetzt. Künftig wird auch der Nehalem mit seinen neuen Features und einer neuen Strukturbreite eine große Rolle am CERN spielen.

“Wir sind erst am Anfang des Bedarfs, aber wir haben eine großen Vorteil”, erklärt Jarp weiter. Wir haben Millionen von Events, die wir aber relativ trivial parallelisieren können.” Wäre der LHC bereits wie geplant 2005 an den Start gegangen hätte Jarp mit noch größeren Problemen kämpfen müssen. Die Zeit und die stetig voranschreitende Weiterentwicklung haben jedoch für den Forscher gearbeitet: “Wir können jetzt rund 10 Mal mehr Computer-Power realisieren als 2005.”

Silicon-Redaktion

Recent Posts

Zukunft des digitalen Zwillings: Process Mining und KI

Der digitale Zwilling einer Organisation bildet reale Geschäftsprozesse virtuell ab und schafft die Grundlage für…

23 Stunden ago

ING setzt bei Kundenservice auf conversational und generative KI

Bestehenden Systeme im Kundenservice stießen an ihre Grenzen. Klassische Chatbots konnten einfache Fragen beantworten.

2 Tagen ago

Wie EPS klassische Industrie neu denkt – und Marketing zur echten Führungsdisziplin macht

Kundennähe entsteht nicht per Knopfdruck – sie verlangt Haltung, Aufmerksamkeit und eine klare Strategie. Gerade…

2 Tagen ago

Enkeltrick auf Milliardenniveau: KI-Sabotage im Finanzsektor

KI wird zunehmend zum Ziel von Cyberangriffen durch Prompt Injections, warnt Christian Nern von KPMG.

2 Tagen ago

Isolierte Cloud für Regierungen und Verteidigungsorganisationen

Oracle Cloud Isolated Regions sind sichere, vom Internet getrennte Cloud-Lösungen.

2 Tagen ago

Entwicklung des Quantencomputers stellt Risiko für Cybersicherheit dar

Nur Vier Prozent der Unternehmen verfügen über eine definierte Strategie für das Quantencomputing.

2 Tagen ago