Beinahe alle namhaften Server-Hersteller haben Modelle auf Basis von AMD64 oder Intel EM64T im Angebot. Wenn es nicht gerade Linux-Server sind, werden noch die meisten aber mit 32-Bit-Betriebssystemen ausgeliefert. IBM, Hewlett Packard und Co. berufen sich dabei gerne auf Investitionssicherheit für die Unternehmen: Die 64-Bit-fähigen CPUs von Intel und AMD, die auch noch 32-Bit-Software ohne Probleme verarbeiten können, seien eine zukunftssichere Architektur, mit der man nicht viel falsch machen kann. Beim Gros der Anwender jedoch provoziert die Dämmerung des neuen 64-Bit-Computerzeitalters höchstens ein beiläufiges Achselzucken.
Argumente wie Performance-Gewinne, mehr Stabilität und nicht zuletzt das Aufbrechen der Speichergrenze von 4 GigaByte scheinen die Frage nahe zu legen, weshalb nicht schon längst alle Welt zu den Chips mit doppeltem Adressraum übergewechselt ist. Aber die Realität sieht anders aus. “Der durchschnittliche Anwender braucht 64-Bit nicht auf seinem Computer”, erklärt Jim McGregor, Principal Analyst bei Instat/MDR, einem Marktforschungsinstitut mit starkem Fokus auf die Halbleiterindustrie. In absehbarer Zeit sieht er beispielsweise kein ‘Office x64 Edition’. “Das würde auch überhaupt keinen Sinn machen”, erklärt er. Knapp 60 Prozent der silicon.de Leser, die beim silicon.vote mitgemacht haben, glauben ebenfalls, dass sich dadurch nicht allzu viel verändert.
Standard-Server betreten die Unix-Welt
Für McGregor gebe es auch Bereiche, in denen diese Technologie ihre Vorteile ausspielen könne. “Für Server ist es die natürlichste Sache der Welt”, stellt McGregor fest. So ergebe sich auf entsprechenden Xeon- oder Opteron-Prozessoren auch mit 32-Bit-Software eine Performance-Steigerung “im zweistelligen Prozentbereich”, berichtet der Analyst. “Ob man das auch wirklich spürt, ist diskutierbar.” In der Unix-Welt hat der Umzug auf 64-Bit vor knapp zehn Jahren stattgefunden, eben weil es so eine selbstverständliche Sache ist. So unterstützt etwa HP-UX, das Unix-Derivat von Hewlett-Packard, 64-Bit-Adressierung seit der Version 11.0, die 1997 freigegeben wurde.
Unix-Installationen finden sich meist auf RISC-Prozessoren (Reduced Intstruction Set Computing). Die x64-Architektur – so die Namensneuschöpfung von Intel und AMD für die Industriestandard-Chips der x86-Architektur mit 64-Bit Erweiterungen – bringt nun ein Feature, das bislang nur auf Highend-Servern zu finden war, in eine erschwinglichere Preisklasse.
Aber nicht nur aus Kostengründen werden immer häufiger Unix-Rechner gegen Systeme auf Basis des Opteron oder Xeon ausgetauscht. Auch der Leistungs-Vorsprung von RISC-basierten Systemen gegenüber den Industriestandard-Servern verringert sich von Jahr zu Jahr. Daher finden viele Anwendungen jetzt auch auf günstigen Systemen Platz, die vor einigen Jahren noch nach einem dicken Hobel verlangten. Nicht zuletzt die Vielzahl der Anwendungen für die x86-Architektur unter Linux und Windows machen Opteron und Co. zu attraktiven Plattformen. Und auch Microsoft nutzt das Wachstumspotential der neuen Technologie.
Keine bewusste Migration
Einerseits sind die Applikationen die treibende Kraft für die neue Technologie, andererseits auch deren größter Hemmschuh. “Wenn man sich anschaut, was typischerweise auf einer Solaris-Installation läuft, wird man feststellen, dass rund 90 Prozent der Anwendungen noch 32-Bit-Software sind”, erklärt Robert Zwickenpflug, Product Marketing Manager Volume Products bei Sun Microsystems, gegenüber silicon.de. Sun bietet auf der Sparc-Solaris-Plattform seit knapp zehn Jahren Support für 64-Bit.
Noch sind aber Hardware-Systeme mit x64-CPUs ebenso wie die Applikationen in 64-Bit-Versionen eher die Ausnahme. Einige Analysten sagen eine langsame Evolution voraus, die sich noch über Jahre hinziehen werde. “Ich glaube nicht, dass die Mehrzahl der Unternehmen eine bewusste Migration vollziehen wird”, schätzt Andy Butler, Vice President und Senior Research Director bei dem Marktforschungsunternehmen Gartner.
Page: 1 2
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…