Categories: Gastbeitrag

Energie-Einsparpotential von Kubernetes über 30 Prozent

Rechenzentren gehören zu den größten Energieverbrauchern der Welt. Mit der zunehmenden Digitalisierung steigt auch weltweit die Nachfrage nach Daten. Obwohl Energie einen großen Anteil an den Kosten eines Rechenzentrums hat, zögerte die IT-Branche bislang beim Energiemanagement, da die Gewinnspannen groß sind und jede Rechnung bezahlt werden konnte. Doch jedes Watt Energieverbrauch in einem Rechenzentrum erfordert auch ein Watt Kühlung.

Wenn es um Energieverbrauch geht, rücken daher in vielen Unternehmen die Rechenzentren ins Visier. Kann „Containerisierung“ den Stromverbrauch senken? Kubermatic, Anbieter einer Open-Source-Kubernetes-Plattform,  hat hierzu eine Untersuchung veröffentlicht. Die Verwaltung der Rechenressourcen muss so wenig Energie wie möglich verbrauchen, während die Arbeitslasten durch Abgleich, automatische Skalierung und Optimierung der Arbeitslastplatzierung ständig optimiert werden müssen. Diese Komplexität ist die größte Herausforderung.

Energie für Rechenleistung, Speicherung und Netzwerk

Nichts hat einen größeren Einfluss auf den Energieverbrauch als die Rechenleistung. Tatsächlich verbrauchen Rechenhardware und die dazugehörige Kühlung 86 Prozent der Energie eines Rechenzentrums, während 11 Prozent auf die Speicherung und 3 Prozent auf das Netzwerk entfallen. Daraus ergibt sich ein klares Optimierungsziel für die Nutzung der Rechenhardware.

Auch wenn die Chiphersteller viel für intelligente Energieeinsparungen tun, wird noch immer etwa 50 Prozent der in einem Rechenzentrum verbrauchten Energie durch Rechenleistung im Leerlauf verschwendet. Selbst Hardware im Leerlauf benötigt immer noch Strom und Kühlung, was bedeutet, dass die im Leerlauf verbrauchte Energie 43 Prozent des Gesamtverbrauchs ausmacht. Es lässt sich eine große Menge an Energie einsparen, indem man die Auslastung der Rechenleistung erhöht.

Netzwerk, Housing und Speicher sind im Vergleich zu den Rechenanforderungen sekundär und machen einzeln betrachtet nur einen kleinen Teil des Energieverbrauchs aus. Bei der Speicherung wird beispielsweise der Bedarf für jedes gespeicherte Terabyte alle zwei bis drei Jahre um die Hälfte reduziert. In jüngster Zeit ist jedoch der Stromverbrauch der Rechenressourcen gestiegen. Um also Einsparungen zu erzielen, gilt es die bestehende Infrastruktur zu optimieren.

Orchestrierungsplattform der nächsten Generation

Die Auslastung von Rechenzentren lässt sich durch den Betrieb virtueller Maschinen mit speziell für diesen Fall geeigneten Algorithmen optimieren. Die Technologie stammt aus dem Jahr 1998. Im Jahr 2014 wurde dann Kubernetes – als ein Open-Source-System zur Automatisierung der Bereitstellung, Skalierung und Verwaltung von containerisierten Anwendungen – von Google an die Linux Foundation gestiftet.

Es gibt grundlegende Unterschiede zwischen Virtualisierung und Containerisierung, vor allem in der Art und Weise, wie man mit Arbeitslasten und der Bereitstellung einer Anwendung umgeht. Das Image einer virtuellen Maschine (VM) wird zum Beispiel in Gigabyte gemessen und bewegt sich in der Regel im ein- bis zweistelligen Bereich. Ein typischer Container hingegen wird in zwei- oder dreistelligen Megabyte-Größen gemessen, in seltenen Fällen auch in einstelligen Gigabyte-Größen. Das bedeutet, dass eine VM um einen Faktor zwischen fünf und 25 mehr Ressourcen benötigt als ein Container.

Außerdem kann ein Container in Kubernetes ein Limit für die Rechenleistung erhalten. Kubernetes ist in der Lage, eine CPU in 1.000 Teile aufzuteilen, und typische Grenzen liegen zwischen 150 und 1.000 Teilen für eine containerisierte Bereitstellung. Eine VM reserviert jedoch immer eine volle CPU, also 1.000 von 1.000 Teilen, auch wenn sie nicht immer die volle CPU benötigt. Container bieten daher viele Vorteile, was die Ressourcennutzung angeht. Sie erfordern weniger IT-Ressourcen für die Bereitstellung, den Betrieb und die Verwaltung, lassen sich in Millisekunden aufsetzen und da sie kleiner sind, kann ein einziges System im Vergleich zu VMs viel mehr Container hosten.

Billionen Watt müssten nicht verschwendet werden

Damit sind Container ideal, um die Auslastung von Ressourcen zu erhöhen. Millionen von VMs verbrauchen Rechenleistung, obwohl sie nur einen Bruchteil davon für einen Bruchteil der Zeit benötigen. Multipliziert man die Anzahl dieser VMs mit 0,5, dem Faktor für den Energieverbrauch im Leerlauf, ergeben sich Billionen von Watt, die nicht verschwendet werden müssten.

Der wichtigste Vergleich zwischen diesen Technologien läuft unweigerlich auf Energie und Dichte hinaus, da diese Kennzahlen die Effizienz und damit die Kosten widerspiegeln. Ein häufig zitierter Vergleich8 kam zu dem direkten Ergebnis, dass „Docker (Container) die Ausführung von bis zu 21 Prozent mehr Diensten als KVM ermöglicht“. Diese Zahlen werden durch die Schlussfolgerung zur Gesamtenergieeffizienz noch getoppt, die lautet: „Auf der Ebene des Rechenzentrums könnten dieselben Rechenlasten mit weniger Servern und weniger Energie pro Server ausgeführt werden, was insgesamt eine Energieeinsparung von 28 Prozent im Rechenzentrum bedeutet.“

Insgesamt hängt der Vergleich in Bezug auf die Energieeffizienz von der individuellen Einrichtung ab. Im Allgemeinen lässt sich mit einer aktuellen Orchestrierungsplattform für Kubernetes eine besonders effiziente Architektur realisieren. Im Vergleich zu einem Standard-Open-Source-basierten Kubernetes-Cluster und den meisten kommerziellen Angeboten verbraucht das Management einer modernen Orchestrierungsplattform 20 Mal weniger Ressourcen.

EnergyOps: Optimierung der Ressourcennutzung

Der Betrieb und die Entwicklung hat sich hin zu DevOps, GitOps, SecureOps und FinOps entwickelt. Der nächste Schritt sind EnergyOps, denn die Optimierung der Ressourcennutzung sollte Teil aller digitalen Initiativen sein. Hierbei sind drei wichtige Fähigkeiten erforderlich. Erstens gilt es, bestehende Ressourcen zu nutzen und sie für moderne Implementierungen einzusetzen, um die reibungslose Einführung neuer Technologien neben bestehenden und bewährten Tech-Stacks zu ermöglichen. Zweitens müssen diese Technologien den ständigen Austausch wichtiger Komponenten unterstützen, um für die nächste und jede weitere Änderung anpassungsfähig zu bleiben. Und schließlich muss die Nutzung zusätzlicher Dienste und Technologien von Drittanbietern – ob Open Source oder proprietär – durch Standardmuster unterstützt werden, früher bekannt als APIs, heute als „komponierbare“ Architektur.

Die Vorteile der Verwendung dieser Muster und der Einführung einer Orchestrierungsplattform der nächsten Generation führen zu einer schnelleren Einführung und erheblich verbesserten Effizienz der Technologie. All dies wird letztlich dazu beitragen, das übergeordnete Ziel zu erreichen, im Rechenzentrum nachhaltiger zu werden.

Sebastian Scheele

CEO Kubermatic

Roger Homrich

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

22 Stunden ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago