Mit immer neuen Anwendungen für verschiedene Arbeits- und Lebensbereiche wächst auch in Deutschland die Datenflut und damit der Bedarf an Rechenleistung. Sowohl Hyperscaler wie Google, AWS, und Microsoft, als auch Unternehmenskunden werden in den nächsten Jahren verstärkt Rechenzentrumskapazitäten nachfragen.
Angeheizt wird der Kapazitätsbedarf vor allem durch die Nachfrage nach KI-Anwendungen. Allerdings erfordern sie ein hohes Maß an Sicherheit und Datensouveränität. Immer mehr Unternehmen planen daher entsprechende Kapazitäten in Deutschland, um die Risiken zu reduzieren.
Zudem setzt sich der Trend zum High-Performance-Computing (HPC) unvermindert fort. Die leistungshungrigen Anwendungen kommen bereits in vielen Unternehmen quer durch alle Branchen zum Einsatz. Nachdem die HPC-Kapazitäten seit Jahren in die nordischen Länder abwandern, gibt es mittlerweile starke Bestrebungen, in Deutschland wieder mehr aufzubauen.
Ein weiterer wichtiger Trend ist Edge Computing. Nach Jahren wachsender Formate mit bis zu dreistelligen MW-Kapazitäten nehmen auch kleinere Edge-Deployments zu. Vielerorts entstehen Konzepte für dezentralisierte und integrierte städtische Standorte, einschließlich kleinerer Rechenzentren. Allerdings fehlen bisher dafür noch die Betreiber.
Die Rechenzentrumsbranche reagiert auf den steigenden Kapazitätsbedarf mit innovativen Technologien und Konzepten. So werden Lösungen für die Flüssigkeitskühlung schon seit Jahren intensiv diskutiert. Durch den Einsatz von direkter Chipkühlung oder Immersionskühlung lassen sich die Temperaturen in Rechenzentren senken und auf diese Weise durch ein geändertes Design die Baukosten reduzieren. Bei einer direkten Chipkühlung steigt die Temperatur der Abwärme. Bei der Flüssigkeitskühlung ist zudem die Wärmeübertragung an die Fernwärme effizienter, da bei der Energieentnahme aus flüssigen Medien wesentlich weniger Energie verlorengeht als bei der Gewinnung aus der erwärmten Luft.
Die Technologie ist bereits ausgereift, es fehlt allerdings noch an Akzeptanz von Seiten der Cloud-Anbieter und Hyperscaler, um als „state-of-the-art“ anerkannt zu werden. In Anbetracht der jüngsten Entwicklungen und politischen Zielvorgaben ist aber zu erwarten, dass sich die die Flüssigkühlung mittelfristig durchsetzen wird.
„Die Offenheit für neue Technologien und neue Wege der Energieerzeugung ist enorm wichtig für innovative Entwickler und Betreiber von Rechenzentren“, sagt Christian Kallenbach von NDC-GARBE Data Centers Europe. „Zu den momentan meist diskutierten Alternativen zählt die mit Wasserstoff betriebene Brennstoffzelle.“
Vor diesem Hintergrund ist das Potenzial für die deutsche Rechenzentrumsbranche enorm. Allerdings gibt es auch nicht zu unterschätzende Hürden. So bergen die Verschärfung der gesetzlichen Vorschriften sowie technologische Barrieren die Gefahr, dass sich der Schwerpunkt für die weitere Expansion auf andere europäische Länder verlagert.
Vor allem das geplante Energieeffizienzgesetz (EnEfG) ist eine Herausforderung für alle Akteure der Branche. Denn sie verpflichtet die Betreiber von Rechenzentren, ihre überschüssige Wärme an externe Abnehmer zu liefern – allen voran Kommunen und Fernwärmeversorger. Letztendlich müssen alle Betreiber die gleichen Dekarbonisierungsziele erreichen. Und eine erfolgreiche Abwärmenutzung ist nur möglich, wenn die Beteiligten reibungslos zusammenarbeiten. Bislang praktizieren allerdings nur wenige die Wiederverwendung von Abwärme oder planen dies. Denn die Zweifel an der Machbarkeit der vorgegebenen Quoten sind groß. In den Ballungsgebieten werden bereits erste Projekte mit Fernwärmeversorgung umgesetzt. Bei älteren hochkalorischen Fernwärmenetzen besteht jedoch nur ein begrenztes Interesse, sich an Rechenzentren mit niedrigkalorischer Überschusswärme anzuschließen.
Das EnEfG gibt ein PUE-Ziel (Power Usage Effectiveness) von 1,2 vor. Dieser Wert beschreibt, wie effizient ein Rechenzentrum Energie nutzt. Das PUE-Ziel betrifft alle Rechenzentren, die nach dem 1. Juli 2026 in Betrieb gehen – darunter viele Projekte, die sich derzeit in der Endphase der Planung befinden. Diese müssen unter Umständen umgestaltet werden, um dem EnEfG zu entsprechen.
Weitere Hürden bei der Entwicklung neuer Projekte sind die Knappheit von passenden Grundstücken und erneuerbaren Energien sowie fehlende Netzkapazitäten in den Top-Tier-Regionen. Dadurch kann die Planung künftiger Kapazitäten nur mittel- bis langfristig erfolgen. Da die Wartezeit für verfügbaren Strom teilweise mehr als zehn Jahre beträgt, werden zunehmend alternative Energielösungen in Mikronetzen gefördert. Es kommt darauf an, sich rechtzeitig Kapazitäten zu sichern, um neue Rechenzentren bauen zu können.
Damit dies gelingt, braucht es mehr Markttransparenz sowie eine vertrauensvolle Zusammenarbeit mit den Entscheidungsträgern in den Kommunen, mahnt Kallenbach: „Nur wenn Städte und Gemeinden die Chance sehen, zukunftsorientierte Unternehmen anzuziehen und sich mit kreativen digitalen Konzepten zu positionieren, werden sie auch Flächen für neue Rechenzentren bereitzustellen. Es ist daher wichtig, sie von den Vorteilen zu überzeugen, die ein Rechenzentrum vor Ort bietet: niedrige Latenzzeiten und dadurch ein hohes Maß an Verfügbarkeit und Schnelligkeit – also genau das, was geschäftskritische Anwendungen erfordern.“
Trotz der genannten Einschränkungen hält es Kallenbach für unwahrscheinlich, dass Deutschland seine globale Rolle und sein attraktives Umfeld im Rechenzentrumsmarkt verlieren wird. „Zwar besteht die Gefahr, dass die Hyperscaler ihre Prioritäten auf europäische Länder mit weniger Regulierung und mehr verfügbaren Ressourcen verlagern und damit das Tempo der Digitalisierung hierzulande drosseln. Angesichts des enormen Bedarfs an Virtualisierung, Automatisierung, Kommunikation, HPC sowie KI, eingebettet in sichere Strukturen, ist aber davon auszugehen, dass die Nachfrage nach Rechenzentrumskapazitäten das Marktwachstum weiter antreiben wird.“
Derzeit sind Rechenzentrumsprojekte mit Hunderten von MW in den besonders gefragten Städten Frankfurt und Berlin in der Entwicklung – vorrangig für die Hyperscaler oder in ihrem Auftrag. Auch an Tier-2-Standorten wie Düsseldorf, Hamburg, Nürnberg und München sind weitere neue Projekte geplant, hauptsächlich von Unternehmensanwendern und Colocation-Anbietern. Und diese künftigen Kapazitäten werden sich auf die bestehenden Rechenzentren auswirken.
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…