1 Teraflop auf einem Intel-Chip

Das bedeutet, dass der Chip ein Terabyte Daten pro Sekunde verarbeiten kann. Das entspricht einer Rechenleistung, für die vor zehn Jahren noch ein Supercomputer mit fast 10.000 Pentium-Prozessoren nötig war.

Die 80 Kerne sind jeweils mit 3,1 GHz getaktet und sitzen auf demselben Die (Stück Silizium), auf dem die restliche Mikroprozessor-Logik untergebracht ist. Hier werden die Kerne über einen neuartigen Interconnect-Fabric, den so genannten ‘Through-Silicon Vias’ (TSV), vertikal mit den Arbeitsspeichern auf der Rückseite des Prozessors verbunden.

So steigere sich die Rechenleistung, da TSV den Zugriff auf den Arbeitsspeicher deutlich beschleunige. Die Informationen zwischen den Kernen laufen über Kanäle auf der Siliziumoberfläche. Noch sind die Kerne auf dem experimentellen Chip ausschließlich für Fließkomma-Berechnungen konzipiert. Intel will diese Technologie innerhalb der nächsten fünf Jahre auf den Markt bringen.

Etwas näher an der Marktreife sind die neuen Quadcore-Modelle für Server und Desktop. Im November, so erklärte Paul Otellini, President und CEO von Intel, werde der erste vierkernige Chip, eine Extreme-Edition für den Desktop, auf den Markt kommen. Er soll die Leistungsfähigkeit seines zweikernigen Vorgängers um 67 Prozent übertreffen. Im ersten Quartal 2007 soll dann der ‘Core 2 Quad’ in einer etwas günstigeren Ausführung folgen. Einen vergleichbaren Zeitplan gibt der Hersteller auch für die Server-Chips vor.

So soll im November ein schneller Xeon mit vier Kernen veröffentlicht werden. Offizielle Bezeichnung wird ‘Xeon 5300’ sein. Der ‘L5310’ ist eine Variante für den energiesparenden Einsatz und die folge im ersten Quartal des kommenden Jahres. Laut Hersteller verbraucht diese CPU, die für den Einsatz in Blade-Servern konzipiert ist, lediglich 50 Watt. Derzeit setzt sich die Architektur mit vier Kernen im Grunde aus einem gespiegelten Prozessor mit zwei Kernen zusammen. Möglich wird der Leistungszuwachs und die Energieeffizienz durch den Herstellungsprozess mit 65 Nanometern. Ab Sommer 2007 will Intel seine Produktion dann auf 45nm umstellen.

“Am Ende des Jahrzehnts werden wir im Vergleich zu heutigen Prozessoren eine 300-prozentige Verbesserung der Leistungsfähigkeit pro Watt erreichen”, prognostiziert Otellini. Dadurch seien völlig neue Systeme möglich. Dazu werde auch die Strategie beitragen, dass Intel künftig alle zwei Jahre eine neue Mikroarchitektur entwickeln will. Vor einigen Monaten wechselte Intel von Netburst auf Core Micro. Die nächste Mikroarchitektur soll ab 2008 mit dem Code-Namen ‘Nehalem’ dem 45nm-Prozess Rechnung tragen. ‘Gesher’ ist für den 32nm-Prozess konzipiert und soll ab 2010 den Prozessoren zu Grunde gelegt werden. Zwei unabhängige Teams entwickeln diese Architekturen parallel. Dadurch, so hofft man bei Intel, werden die spezifischen Eigenschaften der künftigen Technologien besser ausgenutzt.

Deutliche Fortschritte, so Otellini, habe sein Unternehmen auch bei der kabellosen Breitbandtechnologie WiMax gemacht. Doch auch die Prozessoren will Intel im Mobil-Bereich vorantreiben. Ende 2007 soll der Ultra-Low-Power-Prozessor ‘Steeley’ so genannte ultra-mobile Rechner antreiben.

Der Traum des Herstellers ist eine Batterieleistung von acht Stunden. Um das zu erreichen, will Intel verschiedene Komponenten, wie etwa den Grafik-Chip oder den Memory Controller, in die CPU integrieren. Steeley wird dann zusammen mit der Plattform ‘McCaslin’, die auch als Referenz-Design verfügbar sein wird, ausgeliefert. Mit Spezifikationen und weiteren Details ist Intel derzeit noch recht zurückhaltend. Jedoch sollen diese Plattformen mit WiFi- und WiMax-Support ausgeliefert werden, wie Anand Chandrasekher, Vice-President der Ultra Mobile Group bei Intel, erklärte. Mit ersten McCaslin-Modellen ist ab etwa 2008 zu rechnen.

‘Normale’ Laptops frischt dagegen die Plattform ‘Santa Rosa’ auf. Neben Support für den WiFi-Standard 802.11n wird die mobile Plattform ab nächstem Jahr auch mit Flash-Speichern bestückt werden. Das spart Zeit beim Hochfahren des Rechners und vermindert den Stromverbrauch, da nicht alle Informationen und Daten von der stromfressenden Festplatte geholt werden müssen.

Silicon-Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

4 Stunden ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

8 Stunden ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

2 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

3 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

4 Tagen ago