Die Kraft der zwei Kerne bereitet Softwareherstellern Probleme

Das Intel Developer Forum, die Hausmesse des Halbleiterriesen, hat den Trend noch einmal eindrucksvoll unterstrichen: Nicht nur durch Steigerung der Taktraten sollen CPUs künftig an Performance zulegen, sondern durch die Integration von zwei oder mehr Kernen im selben Gehäuse. Diesen Weg verfolgt nicht nur Intel, sondern auch AMD, Sun und IBM. Doch durch das Engagement des Marktführers wird klar, dass die Technologie eine andere Dimension in Sachen Verbreitung erreicht – und wirft für die IT-Industrie viele Fragen auf.
“Die Multicore-Technologie von Intel bedeutet viel mehr, als zwei Prozessorkerne auf einem einzigen Stück Silizium unterzubringen”, erklärte Paul Otellini, President und COO des Halbleitergiganten, und präsentierte stolz unter dem Codenamen ‘Montecito’ einen Dual-Core-Itanium-Chip mit mehr als 1,7 Milliarden Transistoren auf einer Siliziumscheibe. Bei der Dual-Core-Technologie, die in vergleichbarer Form neulich auch Sun bei seinen Sparc-Prozessoren präsentierte, werden auf einem Stück Silizium zwei Prozessorkerne untergebracht. Der Vorteil dabei ist, dass der Prozessor verschiedene Arbeitsschritte besser simultan bearbeiten kann und bei gleicher Taktung mehr Leistung verspricht.

Auch der Itanium-Chip, der die Erwartungen des Herstellers in Sachen Absatzzahlen bislang nicht erfüllen konnte, soll durch die Kraft der zwei Herzen leistungsfähiger, billiger und damit attraktiver gemacht werden. Doch Intel will die Hyperthreading und Dual-Core-Technologie nicht nur in Server mit 64-Bit-Architektur unterbringen. So soll der Consumerbereich ab 2005 im Dual-Core-Verfahren rechnen. Und schon 2006 soll die Hälfte aller ausgelieferten Chips nach Intels Wünschen mit zwei Kernen ausgestattet sein. Das Rennen um höhere Taktzahlen scheint dagegen fürs erste beendet.

Der Trend zu mehreren Kernen sorgt allerdings schon jetzt bei Softwareherstellern für einige Verwirrung, denn bislang fehlt eine einheitliche Regelung, wie solche Multicore-Prozessoren lizenzmäßig zu berechnen sind. Für die Hersteller von Software könnte diese Entwicklung über kurz oder lang bedeuten, dass sie sich von lieb gewonnenen Lizenzierungsmodellen verabschieden müssen, die per CPU abrechnen.

Noch gibt es keinen industrieweiten Standard, der die Lizenzkosten für Rechner mit Dual-Core-Chips einheitlich regelt. Man tut sich allgemein schwer damit, denn noch ist ungewiss, welche Auswirkungen die leistungsfähigeren Chips auf die Anzahl der verkauften Server haben wird und wie sich das Kaufverhalten der Unternehmen dadurch ändern wird. Und offenbar sind auch die Hersteller von Prozessoren noch nicht ausreichend auf diese Frage eingegangen.

Schließlich hat auch der Intel-Konkurrent AMD bereits angekündigt, in der ersten Hälfte 2005 mit einem Dual-Core-Opteron auf den Markt kommen zu wollen, den IBM verbauen wird. Das Problem potenziert sich natürlich mit der Zahl der Prozessorkerne.

Jetzt hat der Chiphersteller AMD Richtlinien veröffentlicht, wie neue Lizenzmodelle aussehen könnten. “Wir wollen, dass Softwareunternehmer für ihre Leistung fair bezahlt werden”, erklärte Margaret Lewis, Strategiemanagerin bei AMD gegenüber US-Medien. Und es gebe Alternativen dazu, als einfach nur Prozessoren zu zählen. So kommt von HP und Sun der Vorschlag, doch nach Steckplätzen zu berechnen. Das Marktforschungs-Institut IDC hat ebenfalls bereits auf den neuen Trend reagiert und den Vorschlag der beiden Hersteller angenommen. Die Analysten wollen künftig ihre Zahlen ebenfalls auf der Grundlage von ‘Sockets’ erstellen.

Diskussionen gab es auch im Jahre 2002, als Intel den Xeon herausbrachte, der über Virtualisierungstechnologie für ein Microsoft-Betriebssystem unter Umständen wie ein Cluster aus mehreren CPUs aussah. Damals entschied sich Redmond aber dafür, nach physischen Prozessoren abzurechnen und nicht nach virtuellen CPUs zu lizenzieren. Aber hier ist das letzte Wort noch nicht gesprochen, jetzt sollen flexible Modelle her, wie es von dem Unternehmen heißt. Während Sun und Novell Multicore-Prozessoren als eine Einheit berechnen wollen, tendiert IBM eher dazu, nach Kernen zu berechnen.

BEA Systems geht hier neue Wege. Der Hersteller von Infrastrukur Software für Unternehmensanwendungen, geht davon aus, dass ein Dual-Core-Chip nicht der Leistung von zwei Prozessoren entspricht, sondern die Performance nur um etwa ein Drittel erhöht. So erhebt BEA für jeden Dual-Prozessor 25 Prozent Aufschlag und orientiert sich so an der Preispolitik der Hardwarehersteller.

Doch das kann bestenfalls eine Zwischenlösung sein, denn die künftige Prozessor- und Betriebssystemtechnologie wird alles noch komplizierter machen. Virtualisierung heißt hier das Zauberwort. Unter dem Codenamen Vanderpool bastelt Intel an einer Technik, die es Rechnern ermöglichen soll, mehrere Betriebssysteme gleichzeitig zu betreiben. Vanderpool teilt dabei den Prozessor in Partitionen auf, auf denen dann auch verschiedene Prozesse simultan abgearbeitet werden können, zum Beispiel auch Betriebssysteme.

IBM ist da schon ein Stück voraus: Server, die auf dem Power 5 von IBM basieren, bieten die Möglichkeit, auf einem Rechner mehrere Partitionen mit verschiedenen Betriebssystemen zur gleichen Zeit laufen zu lassen, ähnlich wie bei Vanderpool. Auch hier werden neue Lizenzierungsmodelle gefragt sein. Und eine umfassende Lösung ist noch immer in weiter Ferne.

Silicon-Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

9 Stunden ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

12 Stunden ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

2 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

3 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

4 Tagen ago