“Es ist ein fantastischer Moment, wir können jetzt auf eine neue Ära blicken, in der wir die Ursprünge und die Entwicklung des Universums verstehen können”, sagte LHC-Projektleiter Lyn Evans. Von dem global größten physikalischen Projekt versprechen sich die Forscher neue Erkenntnisse zur Teilchenphysik. Doch wie kann das CERN der Auswertung der aus den Experimenten entstehenden enormen Datenflut Herr werden? Ein einzelnes Rechenzentrum wäre nicht in der Lage, für weltweit mehrere tausend Wissenschaftler ausreichend Kapazitäten zur Auswertung der Messergebnisse und Simulationsdaten bereitzustellen.
Über Hochgeschwindigkeitsleitungen ist das CERN daher mit insgesamt 12 Rechenzentren in mehreren Ländern auf der ganzen Welt vernetzt. Die deutsche Schaltstelle für das schnellste Rechnernetz der Welt – ein Knoten der so genannten Schicht TIER 1 – ist das Forschungszentrum Karlsruhe.
Als Speicherlösung für die enorme Datenmenge setzt das GridKa-Projekt am Steinbuch Centre for Computing (SCC) des Karlsruher Instituts für Technologie auf Speicherprodukte und Lösungen von NEC. Die an den Experimenten beteiligten Forscher in Deutschland profitieren davon, da ihnen so ein schneller Zugriff auf die Daten zur Auswertung der Ergebnisse zur Verfügung steht.
Page: 1 2
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
View Comments
In ca 6 Monaten ist Aufrüsten angesagt
Bei einer Gesamtkapazität von 4500 Terabyte = 4,5 Petabyte und einem erwarteten Datenvolumen von 8.000.000 GB = 8 PB + 4 PB Simulationsdaten macht nach Adam Riese 12 PB Daten pro Jahr, scheint mit die Anlage etwas unterdimensioniert.