Die 64-Bit-Revolution hat längst begonnen und dank AMDs Opteron-Prozessor wird sie seit einiger Zeit einer breiteren Anwenderschaft zugänglich. Doch Hersteller wie Sun Microsystems, Hewlett-Packard, Fujitsu Siemens und IBM rücken auf der diesjährigen CeBIT andere Themen in den Vordergrund. In Zeiten schlanker Budgets beschäftigen die IT-Entscheider offenbar Blade-Technologie, Server-Konsolidierung, Virtualisierung und On-Demand-Konzepte mehr als Dual Core, x86-64 oder Hyper Threading. Alles muss einfach und möglichst bequem zu verwalten sein und die Hardware sollte optimal ausgenutzt werden.
‘On Demand Computing’ von IBM, ‘Utility’ oder ‘Adaptive Computing’ aus dem Hause HP, das ‘Dynamic Data Center’ von Fujitsu Siemens oder auch das ‘Sun Grid’. Hinter den viele Namen verbirgt sich jeweils ein ähnlicher Ansatz. Nachdem Hersteller jahrelang möglichst viel Hardware und somit Rechenressourcen verkauft haben, wird jetzt allenthalben nach Mitteln und Wegen gefahndet, die Server optimal auszulasten und in eine möglichst homogene Infrastruktur einzupassen. “Viele Systeme sind nur zu 30 Prozent ausgenutzt”, erklärte Frank Reichart, Senior Director Marketing Enterprise Products bei Fujitsu Siemens, gegenüber silicon.de. “Wir versuchen mit verschiedenen Lösungen, das zu verbessern.”
Aufteilen und skalieren
So wartet jetzt Fujitsu-Siemens bei seinem Flaggschiff-Server, dem ‘SX150’, der auf dem ‘SPARC64’ von Sun basiert, mit neuen Funktionen für Hardware-Partitionierung auf. Die Betriebssysteme ‘BS2000/OSD’ und ‘Solaris’ können jetzt in zwei getrennten Partitionen parallel arbeiten. Zusammen mit der Container-Technologie in ‘Solaris 10’ von Sun können zusätzliche logische Subsysteme innerhalb einer Hardware-Partition angelegt werden. Je nach Auslastung und Bedarf lassen sich Ressourcen innerhalb eines Servers zuteilen. In wenigen Minuten können so für die Lohnabrechung am Monatsende Ressourcen geschaffen werden, die dann anschließend wieder von anderen Anwendungen genutzt werden können.
Mit dem Power 5-Prozessor kommen bei IBM so genannte Micropartitionierungen auf die Server der i-, p-, x- und zSeries. Damit kann jeder Prozessor bis zu zehn Mal unterteilt werden. Auch hier spielt natürlich die Ressourcenzuordnung nach Bedarf eine große Rolle. Dazu hat das Unternehmen seine Virtualization Engine neu aufgesetzt. Das ist ein Bündel verschiedener Virtualisierungstechnologien. Eine davon ist die ‘Hardware Management Console’: Sie implementiert und verwaltet die logischen Partitionen auf Chip-Ebene. So lasse sich jetzt auch beispielsweise eine Linux-Instanz in einer eigenen Partition installieren, wodurch sich etwa auch das Anwendungsspektrum erweitert.
Mit dem eServer p5 hat Big Blue diese Virtualisierungsfunktion jetzt in einen günstigen Einsteiger-Server für den Mittelstand eingeführt. Der p5-510 etwa unterstützt, anders als die OpenPower-Systeme, die ausschließlich Linux fahren, auch Unix. Natürlich sollen auch diese Server einfach zu installieren sein. Mit Dynamic Infrastructure bietet IBM zum Beispiel vorkonfigurierte Systeminhalte. Damit kann ein komplettes SAP-System installiert werden. Ein anderes Thema, in dem sich IBM recht wohl zu fühlen scheint, ist das High Performance Computing (HPC). Auf dem Stand von Big Blue wird der Supercomputer ‘BlueGene’ zu bewundern sein. Einen Hochleistungsrechner, der mit relativ wenig Raum auskommt.
Einen Schwerpunkt auf Linux setzen auch andere Hersteller wie HP oder Fujitsu-Siemens. Im Rahmen des Projektes Big Tux will HP zunächst auf den Integrity Superdome-Servern auch Support für die Linux-Distributionen von Suse und Red Hat bis hin zu 64 Prozessoren ermöglichen. Bislang lässt sich eine Linux-Instanz mit dem Kernel 2.6 auf maximal 16 Prozessoren hochskalieren. Diese Entwicklung wird laut HP über die GPL (General Public License) der Open-Source-Community zur Verfügung gestellt. So kommt der Pinguin in nicht mehr all zu ferner Zukunft auch auf die dicken Hobel.
Page: 1 2
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…