Intel: Von Sensoren und unabhängigen Kernen


Durch die Messung von Echtzeitdaten direkt am Prozessor kann Intel den Energieaufwand beim Kühlen eines Racks um über ein Drittel senken. Quelle: Intel

Von der Öffentlichkeit weitgehend unbeachtet hat Intel vergangene Woche ein neues Konzept vorgestellt, mit dem sich Kühlströme und damit auch die Kühlung von Server-Racks optimieren lassen. Die Idee ist die, direkt am Chip Echtzeitinformationen zu sammeln und diese mit einer Software auszuwerten.

Damit sollen sich nicht nur die Luftströme im Inneren eines Servers verbessern lassen, sondern auch die Kühlung könne so deutlich genauer arbeiten. Intel verspricht eine Effizienzsteigerung der Kühlung von bis zu 36 Prozent.

Irgendwann im nächsten Jahr will Intel diese Technologie den Server-Herstellern verfügbar machen, so der Senior Solution Architect für High-Density-Cloud-Computing Jay Vincent auf der Datacenter Dynamics-Konferenz in San Francisco vor einigen Tagen.

Dabei überwachen die Sensoren nicht nur die Temperatur, sondern auch die Menge der Luft, die durch den Server geblasen wird. Natürlich wird auch geprüft, wie sehr sich die Luft bei dem Weg durch den Server erwärmt hat. Der große Vorteil dieses Ansatzes soll aber darin liegen, dass sich diese Werte bereits aus bestehenden Systemen abrufen lassen.

Intel ermittelt dank neuer Algorithmen und Formeln in einer Computational-Fluid-Dynamics (CFD)-Software aus der Leistung des Gebläses und der durchschnittlichen Austrittstemperatur der Luft, wie viel Energie tatsächlich in die Luftzirkulation innerhalb des Servers gesteckt wird. Anhand der Daten können nicht nur Hotspots ausgemacht, sondern auch der Luftzug optimal angepasst werden.

Intel stellte ein Experiment vor, bei dem es ein Server-Rack mit Plattform-basierten Sensoren ausrüstete. Dank der Echtzeitinformationen über Temperatur, Stromverbrauch und Luftmasse konnte die Lufttemperatur um über 8 Grad Celsius gesteigert werden. Auch die Gebläse haben ihre Leistung entsprechend den Informationen angepasst. Der Luftdurchsatz konnte demnach von 160 Kubikmeter pro Minute auf 153 Kubikmeter pro Minute gesenkt werden. Die Leistungsaufnahme der Ventilatoren konnte um 2,4 Prozent gesenkt werden. Insgesamt habe Intel mit dieser neuen Technologie rund 36 Prozent Kühlenergie eingespart.

Doch auch an anderer Stelle, will Intel die Effizienz im Rechenzentrum steigern. Vor einigen Wochen hat Intel auch neue Details zu der Strategie mit Acceleratoren vorgestellt. Die “Many Independent Core” (MIC) genannte Strategie hebt sich jedoch deutlich von der der Konkurrenten NVIDIA oder AMD ab. Beide Unternehmen nutzen zwar ebenfalls die enorme Leistungsfähigkeit von Grafik-Kernen als Co-Prozessoren für bestimmte Aufgaben, doch diese Kerne bauen nicht auf der x86-Architektur auf. Intel hinkt im Markt für Acceleratoren zwar hinterher, doch können die Entwickler aufgrund der x86-Struktur dieser Beistell-Prozessoren sehr viel schneller Anwendungen schreiben, die von dieser Hardware profitieren können.

Und so hat Intel jetzt auch neue Tools für das Knight´s Ferry Entwicklersystem auf den Markt gebracht. Knight´s Ferry ist eine PCIe-Karte mit insgesamt 32 Kernen und die ersten Ergebnisse für diese Karte sind vielversprechend. Nach wie vor ist es jedoch nicht ganz trivial, angesichts veränderterer Memory-Latenzen und anderer Besonderheiten einen Anwendungscode auf bis zu 32 Kerne auszuweiten.


Der Vorteil von Intels MIC-Strategie ist die einheitliche Architektur. Quelle: Intel

“Aber nichtsdestotrotz, die Möglichkeit, hier mit bestehendem x86-Code zu beginnen, scheint ein positives Vorzeichen für die Größe der Entwicklergemeinschaft zu sein”, wie Forrester-Analyst Richard Fichera in einer Analyse über Intels neue Acceleratoren-Strategie feststellt.

Intel ist derzeit noch recht sparsam mit Details zu den Plänen rund um die künftigen Acceleratoren. Knight’s Ferry, das bereits erwähnte 32-kernige Entwicklersystem, liegt ausgewählten Partnern vor und mit “Knight’s Corner” wird Intel 2012 ein Produkt auf den Markt bringen, das mindestens 50 Kerne hat und im 22-Nanometer-Prozess hergestellt wird. Ferry wird derzeit mit 45 Nanometer Strukturbreite gefertigt. Corner wird voraussichtlich 64 oder 128 Kerne haben.

Doch reicht das aus, um die beiden “Marktführer” im Acceleratoren-Bereich ernsthaft herauszufordern. Um die Produkte von NVIDIA oder AMDs APU (Accelerated Processing Unit) herum gibt es ja bereits eine Entwickler-Gemeinschaft und die arbeitet mit Open CL oder Cuda. Fichera geht nicht davon aus, dass der Absatz der beiden Hersteller kurzfristig massiv einbrechen wird.

Doch längerfristig werde Intel den Druck in diesem Markt erhöhen. Gleichzeitig “wird der Markt für weniger aggressiv skalierte parallele Acceleratoren geöffnet und das Anwenderfeld ausgeweitet”, prognostiziert der Hardware-Experte. Und im “Einsteiger-Segment” werde sich die Möglichkeit, hier mit x86-Code arbeiten zu können, definitiv als Vorteil erweisen. Auch angesichts des Problems von langen Memory-Latenzen beim Laden über die PCIe-Schnittstelle (mit dem aber auch Konkurrenzprodukte kämpfen) kann die Technologie der Attached Accelerators die Leistungsfähigkeit von x86 deutlich steigern.

Silicon-Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

19 Stunden ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago