Zum Ablauf des europäischen GAMES-Projekts (Green Active Management of Energy in IT Service Centers), gibt es endlich Grundlagen für einen auch im IT-Kernbereich effizienteren Betrieb von Rechenzentren. Das ist nicht ganz unwichtig, verbrauchen doch allein die deutschen Rechenzentren 9,7 TWh (Terawattstunden) Strom jährlich. Beteiligt waren an dem Vorhaben acht Partner aus Deutschland, Italien, Rumänien und Israel. Aus Deutschland nahmen die Universität Stuttgart und der IT-Spezialist Christmann teil.
Was bei den 30-monatigen Vorhaben herausgekommen ist, lässt sich im Detail auf der Website des GAMES-Projekts ansehen und herunterladen. Die Ergebnisse kommen gerade rechtzeitig für das heraufdämmernde Cloud-Zeitalter, in dem immer größere Dienstleistungs-Rechenzentren eine wachsende Rolle spielen werden. Damit sie wirtschaftlicher arbeiten, sollten ihre Betreiber ein natürliches Interesse daran haben, Strom einzusparen – so lange darunter nicht die Zuverlässigkeit der Anwendungen und die Sicherheit leiden. Genau dafür allgemein zugängliche Methoden zu entwickeln, war das Ziel des Vorhabens.
Grob gesagt, basiert das entwickelte Konzept darauf, ein Rechenzentrum von Anfang an so aufzubauen und seinen Betrieb so zu steuern, dass im Betrieb spezifischer Anwendungen möglichst wenig Kapazität leer läuft und man keine Energie verschenkt – dies alles, ohne an bestehenden Service-Vereinbarungen zu rütteln.
Am besten funktioniert das natürlich mit Software, die schon so geschrieben ist, dass sie nicht ständig funktional vollkommen unnötige Speicherzugriffe produziert oder andere Aktivitäten auslöst, die mit der Funktionalität nichts zu tun haben, aber dafür den Stromverbrauch erhöhen. Solche Software ist derzeit extrem rar – wahrscheinlich wird aber ein stromlinienförmiges Applikationsverhalten auch in diesem Bereich aufgrund steigender Energiepreise in Zukunft wichtiger und dürfte deshalb in mehr Spezifikationen oder Entwicklungs-Roadmaps einfließen.
Drei Komponenten spielen zusammen
Das GAMES-System beruht auf drei Kernkomponenten, die miteinander verschränkt werden und gemeinsam die gewünschte Energieeinsparung zur Folge haben – im besten Fall immerhin ein Drittel. Denkt man hinzu, dass jede zum Rechnen verwendete Kilowattstunde einen zwar schrumpfenden, aber immer noch vorhandenen zusätzlichen Energieverbrauch für Nebenfunktionen wie Kühlung, Klimatisierung oder Hochverfügbarkeit nach sich zieht, wird klar, dass es sich hier nicht um Kinkerlitzchen handelt, sondern um einen substanziellen Fortschritt.
Weil das energetisch optimale Servicerechenzentrum schon bei seinem Bau auf die spätere Nutzung hin optimiert werden sollte, ist die erste der drei Komponenten ein Design Time Environment (DTE). Es hilft durch Simulationen des Ablaufs der geplanten Applikationen, die nötigen Kapazitäten und Komponenten zu definieren respektive vorhandene Umgebungen mit unterschiedlichen Metriken zu analysieren. Dabei unterstützen sogenannte Green Performance Indicators, also Kennwerte, welche aussagekräftigen Informationen über die ökonomisch-ökologische Leistung des Rechenzentrums liefern, zum Beispiel die Auslastung der Komponenten.
Das Projekt hat eine Reihe solcher Indikatoren definiert. Anschließend lässt man die geplanten Anwendungen testweise in der Umgebung laufen, analysiert die Ergebnisse mit Hilfe einer ausgewählten Sensor-Infrastruktur und optimiert die Umgebung, falls das Ergebnis dies nahelegt.
Die Infrastruktur für die Messung und Analyse der Energieverbräuche (Energy Sensing and Monitoring Infrastructure, ESMI) ist die zweite Komponente des GAMES-Systems. Hierfür wurden Open-Source-Tools, etwa Aufsätze auf Nagios, entwickelt, die der Öffentlichkeit frei zugänglich sind. Der gesammelte Datenwust wird in einer Datenbank gespeichert. Die Effizienz der Installation wird mit weiteren Tools bewertet. Die Softwarewerkzeuge greifen hierfür auf eine im Hintergrund arbeitende Best-Practise-Datenbank zurück.
Die dritte Komponente ist schließlich das Laufzeitsystem (Run Time Environment, RTE), wo die Anwendungen wie in der Testumgebung permanent überwacht und das Betriebsverhalten des gesamten Rechenzentrums, falls erforderlich, angepasst wird. Wie und wann eine Anpassung erfolgt, entscheidet eine Rückkopplungsschleife, die auf die oben erwähnte Best-Practise-Sammlung zugreift. Insgesamt entsteht so eine Lösung, die jeder Anwendung möglichst eine optimale Betriebsumgebung bereitstellt und diese so steuert, dass möglichst wenig Strom verbraucht wird, ohne dass deswegen die Applikations-Performance leidet.
Als besonders effektiv haben sich zum Steuern der Rechenumgebung übrigens Fuzzy-Logic-Algorithmen (http://en.wikipedia.org/wiki/Fuzzy_logic) erwiesen, wie sie beispielsweise die Industrie bei der Maschinensteuerung verwendet. Sie führten zu den bereits erwähnten Stromeinsparungen von etwa einem Drittel. GAMES probierte auch sogenannte Bio-Algorithmen, erreichte mit diesen aber nur zehn Prozent Einsparung.
Tipp: Sind Sie ein Fachmann in Sachen Cloud Computing? Testen Sie Ihr Wissen – mit dem Quiz auf silicon.de.
Hinweis: Lesen Sie Artikel von silicon.de ab sofort auch in Google Currents. Jetzt abonnieren.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.