“Es ist ein fantastischer Moment, wir können jetzt auf eine neue Ära blicken, in der wir die Ursprünge und die Entwicklung des Universums verstehen können”, sagte LHC-Projektleiter Lyn Evans. Von dem global größten physikalischen Projekt versprechen sich die Forscher neue Erkenntnisse zur Teilchenphysik. Doch wie kann das CERN der Auswertung der aus den Experimenten entstehenden enormen Datenflut Herr werden? Ein einzelnes Rechenzentrum wäre nicht in der Lage, für weltweit mehrere tausend Wissenschaftler ausreichend Kapazitäten zur Auswertung der Messergebnisse und Simulationsdaten bereitzustellen.
Über Hochgeschwindigkeitsleitungen ist das CERN daher mit insgesamt 12 Rechenzentren in mehreren Ländern auf der ganzen Welt vernetzt. Die deutsche Schaltstelle für das schnellste Rechnernetz der Welt – ein Knoten der so genannten Schicht TIER 1 – ist das Forschungszentrum Karlsruhe.
Als Speicherlösung für die enorme Datenmenge setzt das GridKa-Projekt am Steinbuch Centre for Computing (SCC) des Karlsruher Instituts für Technologie auf Speicherprodukte und Lösungen von NEC. Die an den Experimenten beteiligten Forscher in Deutschland profitieren davon, da ihnen so ein schneller Zugriff auf die Daten zur Auswertung der Ergebnisse zur Verfügung steht.
Page: 1 2
Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…
Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…
View Comments
In ca 6 Monaten ist Aufrüsten angesagt
Bei einer Gesamtkapazität von 4500 Terabyte = 4,5 Petabyte und einem erwarteten Datenvolumen von 8.000.000 GB = 8 PB + 4 PB Simulationsdaten macht nach Adam Riese 12 PB Daten pro Jahr, scheint mit die Anlage etwas unterdimensioniert.