Integrierte Server sind die neuen Mainframes
Die Server-Landschaft hat sich in den letzten Jahren so stark verändert, dass man von einzelnen Rechnerklassen kaum mehr sprechen kann. Für das Highend gibt es Alternativen zum Mainframe, die mit Standardkomponenten arbeiten und hoch integriert sind.
Die Server-Landschaft hat sich in den letzten Jahren so stark verändert, dass man von einzelnen Rechnerklassen kaum mehr sprechen kann. Für das Highend gibt es Alternativen zum Mainframe, die mit Standardkomponenten arbeiten und hoch integriert sind.
Versuchten früher Unix-Systeme dem Mainframe Paroli zu bieten, so spielt diese Rechnerklasse heute eine untergeordnete Rolle, wie Andreas Zilch, Vorstand der Experton Group konstatiert: “Die klassischen Unix-Systeme sind ziemlich out.” Gartner hat ausgerechnet, dass die Umsätze mit Unix-Rechnern im vierten Quartal 2012 um mehr als ein Viertel (26 Prozent) schrumpften. Platzhirsch ist und bleibt IBM mit einem Marktanteil von 63 Prozent.
Allerdings werden solche Systeme weiter angeboten und auch die entsprechenden Risc-Prozessoren weiterentwickelt. Erst kürzlich kündigte Oracle, das mit der Übernahme von Sun Microsystems in Besitz der Sparc-Prozessortechnik gelangte, den “weltweit schnellsten Prozessor” für Datenbanken und die Verarbeitung von Java-Middleware an. Der neue Sparc-T5-Chip und sein leistungsstarker Bruder Sparc M5 sollen in Systemen verbaut werden, die mit Preisen von einer Viertel- bis einer halben Million Dollar zu Buche schlagen.
Die neuen Rechner sind als “General-Purpose-Lösung” für große Arbeitslasten und zur Datenkonsolidierung gedacht. Zuvor hatte Oracle mit Spezialmaschinen auf Basis der Sparc-Architektur für Aufsehen gesorgt. Mit Exadata und Exalogic vermarktet Oracle zwei mächtige Appliances, die speziell für Datawarehouse und Datenanalyse gedacht sind.
Mit den Modellen der neuen M-Serie im oberen Leistungssegment versucht Oracle zudem, die Sparc-Konkurrenz Fujitsu abzuschütteln. Die Japaner, die bisher auch die Prozessoren der M-Serie fertigten, schickten im vergangenen Herbst die Athena-Familie ins Rennen. Dort arbeiten Sparc64-X-Prozessoren mit 16 Kernen. Die neuen T5-Modelle positioniert Oracle gegen die x86-Konkurrenz, die mit Intels Xeon und AMDs Opteron-CPU arbeitet und natürlich gegen den Dauerrivalen IBM und dessen Unix-Maschinen auf Basis der Power-CPU.
Und Big Blue hat nicht nur den einzig relevanten Mainframe im Angebot – Fujitsus Einnahmen mit BS2000-Systemen sind laut Experton-Vorstand Zilch rückläufig – sondern auch eine Menge an Highend-Unix-Maschinen. Erst kürzlich wurden die Power-basierenden Server um acht Modelle und die integrierte PureSystems-Familie um drei Varianten bereichert.
Das IBM-Angebot ist ein wenig verwirrend weil man unterscheiden muss zwischen den Pure-Appliances, die mit aufgespielter Software ausgeliefert werden und für eine Spezialaufgabe optimiert sind sowie den Flex- und PureFlex-Systemen. Mit der PureSystems-Reihe geht IBM nun einen neuen Weg und bietet komplett mit Prozessorleistung, Speicher und Netzwerke bestückte Maschinen an, die nach dem ziemlich nebulösen Prinzip ‘Scale-In’ aufgebaut sind. Angeblich soll das zu “stark automatisierten und leicht zu verwaltenden” Maschinen führen. Vielleicht meint IBM mit Scale-In auch die integrierten Expertise-Muster, über die Anwender Zugang zum Expertenwissen von IBM und seinen Softwarepartnern erlangen. Werkseitig sind bei Auslieferung bereits einige der Musterblöcke aufgespielt, die Aufgaben wie Konfiguration oder Aktualisierung automatisieren sollen. Das Angebot ist stark vom Cloud-Gedanken geprägt.
Angefangen mit den integrierten Systemen, auch als ‘Unified Systems’ bezeichnet, hat eigentlich Cisco, das im Jahr 2009 mit den “Unified Computing Systems” (UCS) auf den Markt kam. Ausgehend von Ciscos Stärke, dem Netzwerk, bieten die UCS-Maschinen einen redundant ausgelegten Fabric Interconnect für die Verteilung der Daten. Darum gruppieren sich Intel-basierende Server mit sehr großen Hauptspeichern, was die Virtualisierung erleichtert. Der Erfolg stellte sich unerwartet schnell ein, weil die Administratoren weniger Aufwand für Konfiguration und Integration leisten müssen.
Das Beispiel machte Schule, so dass heute selbst PC-Spezialist Dell mit dem “Activ System 800” einen integrierten Server mit Intel-CPU anbietet. Insbesondere das Verwaltungswerkzeug “Active Systems Manager 7.0” soll entscheidend automatisieren und etwa das Workload-Management und die Provisionierung in virtuellen Umgebungen übernehmen.
Ein ziemlich breites Angebot an Servern aller Art hat HP im Portfolio. Dort finden sich nicht nur die ausfallsicheren NonStop-Maschinen, die ursprünglich von Tandem entwickelt wurden. Diese Rechner arbeiten mit Intels Itanium-Chip und sind auf Hochverfügbarkeit in Großrechnerqualität ausgelegt. “Verfügbarkeit geht hier vor Performance”, erklärt Ulrich Ruppel, Enterprise Architect bei HP Enterprise Group in Böblingen. Ebenfalls den Itanium-Prozessor nutzen die Unix-Systeme von HP. Laut Ruppel “wegen der Hochverfügbarkeitsfunktionen und der sehr guten I/O-Leistung”.
HP hat eine Reihe von Projekten zur Modernisierung der Server aufgelegt. So soll die Architektur der Superdome-Rechner mit dem Cross-Bar-Switch auf die x86-Architektur gebracht werden und sich so für In-Memory-Computing empfehlen. Im Projekt ‘Odyssee’ werden Mission-Critical-Systeme mit skalierbaren x86-Blades unter Linux entworfen. Erst dieser Tage wurden erste Ergebnisse aus der Moonshot-Initiative bekannt gegeben: Proliant-Server auf Basis von stromsparenden Intel-Prozessoren (Atom S1200). Eingebaut in das Moonshot-1500-Chassis finden im Rack bis zu 1800 Server Platz.
Wenn es um integrierte Server-Lösungen geht, dürfen auch die beiden Allianzen Flexpod und Vblock nicht fehlen, die hauptsächlich von den Speicheranbietern EMC (Vblock) und Netapp (Flexpod) getrieben werden. Die Vblock-Systeme werden von der VCE-Allianz (VMware, Cisco, EMC) angeboten und Flexpod integriert ebenfalls Produkte von VMware und Cisco aber mit Netapp-Speichern.
Fazit: Hochintegrierte Systeme reduzieren in den Anwenderunternehmen die Komplexität und den Aufwand für Konfiguration und Integration. Es kann sein, dass sich dadurch aber auch die Organisationsstrukturen der IT-Abteilung ändern, weil separate Netz- oder Speicheradministratoren durch Allrounder zu ersetzen sind.