Die für Kollokationszwecke bereitgehaltene Rechenzentrumsenergie wächst in Europa weiter und soll bis 2019 bei rund 330 Megawatt liegen, was einem Volumen von 4, bis 5 Milliarden Euro entspricht. Steve Wallage, Chefanalyst des auf Rechenzentrumsthemen spezialisierten Kongressveranstalters Broad Group, verkündete bei der Konferenz Datacloud Europe: “Der Markt hat sich besser entwickelt, als wir zunächst angenommen haben.”
In Westeuropa wachse er mit 10 bis 12 Prozent im Jahr, in europäischen Märkten außerhalb dieser Zone sogar noch schneller, nämlich mit bis zu 17 Prozent. Die Branche unterliegt trotz Wachstum einem erheblichen Konsolidierungsdruck. So kaufte NTT kürzlich den europäischen provider Telehouse, und vor wenigen Wochen verkündete Equinix die Übernahme von Telecity.
Letzteres ist darauf zurückzuführen, dass gerade große Firmen beim Bau neuer Rechenzentren und bei der Suche nach Kollokationsplätzen längst nicht mehr an den eigenen Landesgrenzen Halt machen. Die Datacloud Europe sah rund 1800 Gäste aus 50 Ländern. Unter ihnen waren mit Sicherheit viele, die überlegten, wohin sie ihr nächstes RZ bauen sollen. Insbesondere Nordeuropa versucht derzeit, seine Stärke als Standort mit viel günstiger erneuerbarer Energie auszuspielen. Die Region hat damit gerade bei den Mega-Anbietern Erfolg: Amazon, Google, Facebook, Apple – alle haben inzwischen Rechenzentren in Nordeuropa errichtet, um von den dortigen Standortfaktoren zu profitieren.
Auch Norwegen, bisher wegen fehlender Glasfaserleitungen ein wenig im Hintertreffen, will jetzt aufholen. Immer wieder betonten Vertreter des nordeuropäischen Landes, das seine Energie hauptsächlich aus Wasser erzeugt, man werde noch in diesem Sommer die nötigen breitbandigen Glasfaseranbindungen fertigstellen. Dass solche Modelle nicht nur für die großen Provider interessant sind, beweist BMW. Das Automobilunternehmen lässt seine Designs in einem HPC-Umfeld beim isländischen Kollokationsanbieter Verne Global testen.
Für den deutschen Mittelstand ist es, zum Beispiel aus Gründen von Datenschutz und persönlichem vertrauen in den Geschäftspartner, wahrscheinlich trotzdem naheliegender, Daten zum Provider in nicht allzu weiter zu schicken oder seine Rechner dort aufzustellen. Schließlich kann man dort meist dem Management gegebenenfalls auch vor Ort und persönlich auf den Zahn fühlen. Das bedeutet heute nicht mehr, dass man mit stromverschwenderischen Facilities vorlieb nehmen muss. Dank innovativer Technologie und dem halbwegs günstigen mitteleuropäischen Klima sind in unseren Breiten RZ-PUEs (Power Usage Effectiveness) von weit unter 2 – inzwischen liegen sie bei Neubauten oft um 1,2 oder sogar darunter – üblich. Mehr als 1,0 ist aber definitorisch beim PUE nicht drin, denn es beschreibt das Verhältnis der fürs Rechnen verwendeten Energie mit der Energie, die ins Drumherum wie USVs oder Generatoren fließt.
Deshalb geraten jetzt mehr und mehr andere Aspekte in den Blickwinkel. Als aktuell wohl wichtigster Hebel, um die Effizienz von Rechenzentren zu steigern, entpuppt sich mittlerweile die Auslastung: Ein Rechenzentrum, in dem Tausende von Servern mit einer Auslastung von zehn Prozent laufen, verschwendet natürlich erheblich mehr Energie als eines, in dem jeder Server voll ausgelastet ist.
Etwas erstaunt musste man auf der Konferenz zur Kenntnis nehmen, dass die Auslastung von RZ-Servern heute nicht etwa durch die Virtualisierung flächendeckend auf 80 oder 90 Prozent gestiegen ist. Vielmehr dümpelt sie im Durchschnitt noch immer im unteren Drittel dahin – die Werte unterschieden sich im Detail von Referent zu Referent, blieben aber durchweg in dieser Zone. Das heißt: Auch bei einem PUE von 1,0 werden in einem Rechenzentrum mit 30 Prozent Serverauslastung zwei Drittel der für das Laufen der Server nötigen Energie sinnlos verschleudert, da daraus für keinen Anwender ein Nutzen entsteht.
Als eine Ursache machten die Referenten den Hang zur übergroßen Sicherheit aus. Denn wenn alles doppelt vorhanden ist, sinkt die Effektivität des einzelnen Elements automatisch auf die Hälfte. Es müsse aber durchaus nicht immer eine Infrastruktur sein, in der jedes Element, einschließlich der Stromversorgungen, komplett mehrfach vorhanden ist. Wenn man zum Beispiel mit einer n+1-Infrastruktur auskommt, in der ein Modul aus Rechnern und zugehöriger Infrastruktur sozusagen als Ersatz für ein eventuell ausfallendes baugleiches RZ-Modul bereitsteht, ist es möglich, die Effizienz der Gesamt-Infrastruktur zu steigern. Diesen Weg gehen manche modularen Infrastrukturen, etwa der mehrfach preisgekrönte eCube.
Ein deutscher Automobilhersteller hat gerade vom niederländischen Rechenzentrumsbauer Deerns in Kooperation mit dem RZ-Planer ttsp hwp seidel eine solche Installation mit einer Leistung von 1,8 MW bauen lassen.
Einen radikalen Weg in diese Richtung skizzierte Chris Belady, General Manager of Data Center Services bei Microsoft: “Wir wollen, dass das Thema Redundanz komplett von der Software übernommen wird.” Die einzelnen Elemente eines Rechenzentrums werden als mehr oder minder gleichartige Knoten konzipiert, zwischen denen die Last rein softwaregesteuert verteilt und verschoben wird. Ist etwas kaputt, entlastet die Software das beschädigte Element sofort und ohne dass die Anwender überhaupt etwas davon mitbekommen, die Last wandert woanders hin und das kaputte System kann ausgetauscht werden. Damit dieses Konzept auch die Stromversorgung einbezieht, werkelt Microsoft daran, Brennstoffzellen direkt ins Rack zu integrieren. Einen entsprechenden Prototyp, der zum Patent angemeldet ist, zeigte Belady auf der Veranstaltung zumindest als Folie.
Unklar freilich blieb, wie der Wasserstoff jeweils in die Brennstoffzelle kommen soll. Denn schließlich erzeugt eine Brennstoffzelle nicht selbst Energie, sondern “verheizt” nur den in ihr vorhandenen Wasserstoff und muss dann wieder geladen oder ausgewechselt werden. Das Beispiel zeigt aber immerhin, dass es auf dem Markt der Rechenzentren spannend bleibt und die Welle der technologischen Innovationen noch längst nicht beendet ist.
Dass man in Deutschland rechenzentrumstechnisch auf keinem schlechten Weg ist, bewies der Vorabend des Kongressbeginns. Zu diesem Zeitpunkt wurden vor 600 ausgewählten Gästen die diesjährigen Datacloud-Awards vergeben. Die begehrte Trophäe ging in der Kategorie Enterprise Datacenter wegen der besonders erfolgreichen Kooperation zwischen Anwender und Rechenzentrumsbauer an das GSI Helmholtzzentrum für Schwerionenforschung, das nach dem eCube-Prinzip derzeit ein Rechenzentrum für 800 Racks mit sechs aktiven Stockwerken in unmittelbarer Nähe des bei Darmstadt befindlichen Beschleunigerrings errichtet.
Tipp: Welche Hersteller dominieren den Weltweiten Martk für Rechenzentrumstechnologien? Lesen Sie hier!
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…