Mit silicon.de im Large Hadron Collider
Der weltweit größte Teilchenbeschleuniger produziert bis zu 40 Millionen Bilder pro Sekunde. Am CERN, dem Conseil Européen pour la Recherche Nucléaire, werden diese Petabyte an Daten mit Intels aktuellem Xeon ausgewertet. silicon.de war mit der Kamera dabei.
“You make it and we break it”, so fasst Wolfgang von Rüden, Leiter des CERN openlap, die IT-Strategie des Forschungszentrums zusammen. Also es geht nicht unbedingt nur ums kaputt machen, doch wollen die Forscher nahe der französischen Grenze ein Maximum aus ihrer Hardware herausholen. “Wir reizen die Rechner bis zum Letzten aus”, fährt von Rüden fort.
Dass man am CERN auch durchaus in der Lage ist, zukunftsweisende Technologien, nicht nur in der Physik sondern auch in der Informatik zu schaffen, weiß man seit der Erfindung des Internet. Derzeit betreibt das CERN openlab das weltweit größte Grid, an das Hunderte von anderen Rechenzentren und Forschungseinrichtungen angebunden sind.
Und im eigenen Rechenzentrum laufen mehr als 35.000 Prozessoren auf Hochtouren, um die riesigen Datenmengen aus den Teilchenkollisionen des Large Hadron Colliders (LHC) auswerten zu können. So produziert der weltweit größte Teilchenbeschleuniger bis zu 40 Millionen Bilder pro Sekunde. Um die zu speichern, stellt das Rechenzentrum vor Ort 15 Millionen Gigabytes Disk-Speicher und 34 Millionen Gigabytes Tape-Storage bereit. Mit Optical Fibre mit einer Kapazität von 10 Gigabits Pro Sekunde bindet das CERN 11 weitere große Datenzentren an.
Bei allen Superlativen hat man im Rechenzentrum am CERN auch mit gewissen Problemen und Beschränkungen zu kämpfen. So ist die maximale Stromzufuhr des Rechenzentrums mit Kühlung und Ventilation auf 2,9 MW begrenzt.
Daher haben sich die Architekten dieses Rechenzentrums bei der Auswahl der zugrunde gelegten Architektur vor allem am Stromverbrauch orientiert. “Wir haben auch Intels Atom analysiert”, erklärt Sverre Jarp, CTO des CERN openlab gegenüber silicon.de. “Wir waren zwar von der Leistungsfähigkeit der CPU beeindruckt, aber nicht von der Effizienz.” So würde das Chipset mehr Strom brauchen als die CPU selbst, damit war Atom ausgeschieden.
Nun laufen viele Server mit dem Harpertown-Chip, der auf der Core2-Architektur aufsetzt. Künftig wird auch der Nehalem mit seinen neuen Features und einer neuen Strukturbreite eine große Rolle am CERN spielen.
“Wir sind erst am Anfang des Bedarfs, aber wir haben eine großen Vorteil”, erklärt Jarp weiter. Wir haben Millionen von Events, die wir aber relativ trivial parallelisieren können.” Wäre der LHC bereits wie geplant 2005 an den Start gegangen hätte Jarp mit noch größeren Problemen kämpfen müssen. Die Zeit und die stetig voranschreitende Weiterentwicklung haben jedoch für den Forscher gearbeitet: “Wir können jetzt rund 10 Mal mehr Computer-Power realisieren als 2005.”