Server: Virtualisierung schlägt 64-Bit Quantensprung

Die 64-Bit-Revolution hat längst begonnen und dank AMDs Opteron-Prozessor wird sie seit einiger Zeit einer breiteren Anwenderschaft zugänglich. Doch Hersteller wie Sun Microsystems, Hewlett-Packard, Fujitsu Siemens und IBM rücken auf der diesjährigen CeBIT andere Themen in den Vordergrund. In Zeiten schlanker Budgets beschäftigen die IT-Entscheider offenbar Blade-Technologie, Server-Konsolidierung, Virtualisierung und On-Demand-Konzepte mehr als Dual Core, x86-64 oder Hyper Threading. Alles muss einfach und möglichst bequem zu verwalten sein und die Hardware sollte optimal ausgenutzt werden.

‘On Demand Computing’ von IBM, ‘Utility’ oder ‘Adaptive Computing’ aus dem Hause HP, das ‘Dynamic Data Center’ von Fujitsu Siemens oder auch das ‘Sun Grid’. Hinter den viele Namen verbirgt sich jeweils ein ähnlicher Ansatz. Nachdem Hersteller jahrelang möglichst viel Hardware und somit Rechenressourcen verkauft haben, wird jetzt allenthalben nach Mitteln und Wegen gefahndet, die Server optimal auszulasten und in eine möglichst homogene Infrastruktur einzupassen. “Viele Systeme sind nur zu 30 Prozent ausgenutzt”, erklärte Frank Reichart, Senior Director Marketing Enterprise Products bei Fujitsu Siemens, gegenüber silicon.de. “Wir versuchen mit verschiedenen Lösungen, das zu verbessern.”

Aufteilen und skalieren

So wartet jetzt Fujitsu-Siemens bei seinem Flaggschiff-Server, dem ‘SX150’, der auf dem ‘SPARC64’ von Sun basiert, mit neuen Funktionen für Hardware-Partitionierung auf. Die Betriebssysteme ‘BS2000/OSD’ und ‘Solaris’ können jetzt in zwei getrennten Partitionen parallel arbeiten. Zusammen mit der Container-Technologie in ‘Solaris 10’ von Sun können zusätzliche logische Subsysteme innerhalb einer Hardware-Partition angelegt werden. Je nach Auslastung und Bedarf lassen sich Ressourcen innerhalb eines Servers zuteilen. In wenigen Minuten können so für die Lohnabrechung am Monatsende Ressourcen geschaffen werden, die dann anschließend wieder von anderen Anwendungen genutzt werden können.

Mit dem Power 5-Prozessor kommen bei IBM so genannte Micropartitionierungen auf die Server der i-, p-, x- und zSeries. Damit kann jeder Prozessor bis zu zehn Mal unterteilt werden. Auch hier spielt natürlich die Ressourcenzuordnung nach Bedarf eine große Rolle. Dazu hat das Unternehmen seine Virtualization Engine neu aufgesetzt. Das ist ein Bündel verschiedener Virtualisierungstechnologien. Eine davon ist die ‘Hardware Management Console’: Sie implementiert und verwaltet die logischen Partitionen auf Chip-Ebene. So lasse sich jetzt auch beispielsweise eine Linux-Instanz in einer eigenen Partition installieren, wodurch sich etwa auch das Anwendungsspektrum erweitert.

Mit dem eServer p5 hat Big Blue diese Virtualisierungsfunktion jetzt in einen günstigen Einsteiger-Server für den Mittelstand eingeführt. Der p5-510 etwa unterstützt, anders als die OpenPower-Systeme, die ausschließlich Linux fahren, auch Unix. Natürlich sollen auch diese Server einfach zu installieren sein. Mit Dynamic Infrastructure bietet IBM zum Beispiel vorkonfigurierte Systeminhalte. Damit kann ein komplettes SAP-System installiert werden. Ein anderes Thema, in dem sich IBM recht wohl zu fühlen scheint, ist das High Performance Computing (HPC). Auf dem Stand von Big Blue wird der Supercomputer ‘BlueGene’ zu bewundern sein. Einen Hochleistungsrechner, der mit relativ wenig Raum auskommt.

Einen Schwerpunkt auf Linux setzen auch andere Hersteller wie HP oder Fujitsu-Siemens. Im Rahmen des Projektes Big Tux will HP zunächst auf den Integrity Superdome-Servern auch Support für die Linux-Distributionen von Suse und Red Hat bis hin zu 64 Prozessoren ermöglichen. Bislang lässt sich eine Linux-Instanz mit dem Kernel 2.6 auf maximal 16 Prozessoren hochskalieren. Diese Entwicklung wird laut HP über die GPL (General Public License) der Open-Source-Community zur Verfügung gestellt. So kommt der Pinguin in nicht mehr all zu ferner Zukunft auch auf die dicken Hobel.

Page: 1 2

Silicon-Redaktion

Recent Posts

Malware-Ranking April: FakeUpdates bleibt die dominante Malware in Deutschland

Sicherheitsforscher von Check Point enthüllen mehrstufige Malware-Kampagnen, die legitime Prozesse zur Tarnung nutzen.

3 Stunden ago

Energiebedarf von Rechenzentren steigt durch KI um das Elffache

Laut Berechnungen des Öko-Instituts wird sich der Stromverbrauch von aktuell rund 50 auf etwa 550…

13 Stunden ago

Industriesoftware für die Flugzeugentwicklung

Bombardier will den Entwicklungsprozess von Flugzeugen mit Siemens Xcelerator digitalisieren – vom Konzept bis zur…

2 Tagen ago

Kreisstadt Unna automatisiert IT-Prozesse mit UEM

Automatisierte Softwareverteilung, zentralisierte Updates und ein optimiertes Lizenzmanagement entlasten die IT-Abteilung.

2 Tagen ago

UniCredit will mit Google Cloud Digitalisierung beschleunigen

Großbank wird auf die Infrastruktur, Künstliche Intelligenz und Datenanalyselösungen von Google Cloud zurückgreifen.

3 Tagen ago

Managed Services: Jeder zweite will Prozesse komplett auslagern

Neue Lünendonk-Studie: Wie Managed Services die digitale Transformation beschleunigen und dem Fachkräftemangel entgegenwirken.

3 Tagen ago