Stromverbrauch von KI deutlich verringern

Der Energieverbrauch von Rechenzentren lag 2020 in Deutschland bei rund 16 Milliarden Kilowattstunden – etwa ein Prozent des gesamten deutschen Strombedarfs. Für das Jahr 2025 wird ein Anstieg auf 22 Milliarden Kilowattstunden prognostiziert. In den kommenden Jahren werden komplexere KI-Anwendungen die Anforderungen an Rechenzentren noch einmal deutlich erhöhen. Diese beanspruchen für das Training von neuronalen Netzen enorme Rechenressourcen. Um dieser Entwicklung entgegenzuwirken, haben Forschende eine Methode entwickelt, die hundertmal schneller ist und dabei vergleichbar genaue Ergebnisse liefert wie bisherige Trainingsmethoden. Damit sinkt der benötigte Strombedarf für das Training erheblich.

Bisherige KI-Trainingsmethode benötigt viele Wiederholungen

Neuronale Netze, die in der KI für Aufgaben wie Bilderkennung oder Sprachverarbeitung eingesetzt werden, sind in ihrer Funktionsweise durch das menschliche Gehirn inspiriert. Sie bestehen aus miteinander verknüpften Knoten, den sogenannten künstlichen Neuronen. Diese erhalten Eingabesignale, die dann mit bestimmten Parametern gewichtet und aufsummiert werden. Wird ein festgelegter Schwellenwert überschritten, wird das Signal an die darauf folgenden Knoten weitergegeben. Zum Training des Netzwerks werden die Parameterwerte anfangs normalerweise zufällig gewählt, zum Beispiel in einer Normalverteilung. Sie werden dann über kleinste Änderungen angepasst, um die Netzwerkvorhersagen langsam zu verbessern. Da für diese Trainingsmethode viele Wiederholungen benötigt werden, ist sie extrem aufwendig und benötigt viel Strom.

Auswahl von Parameter auf Grundlage ihrer Wahrscheinlichkeit

Felix Dietrich, Professor für Physics-enhanced Machine Learning und sein Team haben nun ein neues Verfahren entwickelt. Statt die Parameter zwischen den Knotenpunkten iterativ zu bestimmen, basiert ihr Ansatz auf Wahrscheinlichkeitsberechnungen. Die hier gewählte, probabilistische Methode basiert darauf, gezielt Werte zu nutzen, die sich an kritischen Stellen der Trainingsdaten befinden. Sie fokussiert sich also auf die Stellen, an denen sich die Werte besonders stark und schnell ändern. Die aktuelle Studie zielt darauf ab, mit diesem Ansatz energieerhaltende dynamische Systeme aus Daten zu lernen. Solche Systeme verändern sich im Laufe der Zeit nach bestimmten Regeln und finden sich unter anderem in Klimamodellen oder auf dem Finanzmarkt.

„Unsere Methode ermöglicht es, die benötigten Parameter mit minimalem Rechenaufwand zu bestimmen. Dadurch können neuronale Netze erheblich schneller und dadurch energieeffizienter trainiert werden“, erklärt Felix Dietrich. „Darüber hinaus hat sich gezeigt, dass die neue Methode in ihrer Genauigkeit mit iterativ trainierten Netzwerken vergleichbar ist.“

Roger Homrich

Recent Posts

Künstliche Intelligenz als Gamechanger

"Der wahre Mehrwert von KI entsteht durch die Integration unternehmenseigener Daten", sagt Mike Sicilia von…

2 Tagen ago

Verbrechensabwehr mit KI

Autonom agierende Agenten werden Sicherheitsteams bei der Angriffsabwehr unterstützen, sagt Zac Warren von Tanium.

3 Tagen ago

Schwedens Bargeld-Comeback: Ein unerwarteter Kurswechsel

Schweden hat in seiner Entwicklung hin zu einer bargeldlosen Gesellschaft einen überraschenden Rückzieher gemacht. Diese…

3 Tagen ago

Open Source und KI: Passt das zusammen?

"Uns geht es vielmehr darum aufzuzeigen, wie Open-Source-KI realisierbar ist", sagt Jan Wildeboer von Red…

4 Tagen ago

“Eine integrierte Plattform ermöglicht Vereinfachung bei höherer Qualität”

"Wir haben in unserem SOC den Level 1-Support vollständig automatisiert", sagt Thomas Maxeiner von Palo…

4 Tagen ago

Frauen in der IT: Der entscheidende Wettbewerbsvorteil

Das Bewusstsein für die Bedeutung von Diversität wächst, doch der Fortschritt bleibt zäh, obwohl gemischte…

5 Tagen ago