Glaubt man den Machern der Technologie, dann sind On-Demand-Konzepte inzwischen genauso selbstverständlich wie Bier am Inselstrand oder neues Putzmittel. Zumindest platziert IBM seine Werbefilmchen zwischen entsprechenden Fernsehspots. Doch bis es soweit ist, dass man Rechenleistung tatsächlich wie Strom abrechnen kann, wird wohl noch einige Zeit verstreichen. “Wir rechnen erst in sieben bis zehn Jahren mit einer Durchdringung des Massenmarkts”, sagt Ovum-Analystin Katharina Grimme.
Eine Schlüsselkomponente auf dem Weg dorthin ist die Virtualisierung großer und kleiner Infrastrukturen. Die Grundlagen dafür werden jetzt geschaffen. Egal ob IBM mit On Demand, HP mit Adaptive Computing oder Fujitsu Siemens mit Triole – dahinter steckt immer eine Methode zur Virtualisierung der Server-Landschaft. Die Technologie ermöglicht es, die Ressourcen einer Server-Landschaft so zu variieren, dass niemals überschüssige Kapazitäten brach liegen und gleichzeitig die benötigten Rechenleistung immer “wie aus der Steckdose” zur Verfügung steht.
In heterogenen Umgebungen können dabei auch mehrere Betriebssysteme gleichzeitig auf einem physischen Server laufen. Anwendungen werden damit in virtuellen, abgeschlossenen Einheiten eines Rechners betrieben. Die Vorgehensweise ermöglicht eine Konsolidierung der Server-Landschaft und die damit verbundenen Kosteneinsparungen gehören zum Hauptlockmittel der Hersteller.
IBM arbeitet mit diesem Ansatz seit jeher in seiner Mainframe-Umgebung, doch erst mit der ‘Virtualization Engine’ hat Big Blue im vergangenem Jahr die Idee in der i- und pSeries untergebracht. Auf dem Markt für komplette Virtualisierungskonzepte treffen IBMs Verkaufsleute jetzt vor allem auf HP.
Der lange Weg zum Mainstream
Dort spricht man bereits von einem “frühen Mainstream-Stadium”. “Virtual-Server-Umgebungen drehen sich derzeit vor allem um unsere PA-RISC- (Parallel/Precision Architecture Reduced Instruction Set Computer) und Itanium-Systeme, auf solchen High-end-Systemen werden vor allem kritische Anwendungen ausgeführt. Das ist zur Zeit sehr, sehr beliebt”, so Nick Vanderzweep, Director für Virtualisierung und Utility Computing bei HP. Nach seinen Worten setzen nahezu alle Kunden eine Form von Virtualisierung ein – und sei es nur für die Partitionierung eines einzelnen Servers. Das volle Programm findet sich freilich noch bei wenigen.
Sowohl HP als auch IBM ergänzen ihr Angebot unter anderem mit Technologien von VMware. So greift beispielsweise Big Blue für seine xSeries- und BladeCenter-Systeme auf den Virtualisierungsspezialisten zurück. “Unsere Partnerschaft mit VMware ergänzt unsere On-Demand-Strategie, indem sie zusätzlich die Partitionierung der BladeCenter-Produktlinien auf xSeries- und Intel-Basis ermöglicht”, so IBM-Vice-President Leo Suarez. “In Verbindung mit der Virtualization Engine erweitert VMware die Virtualisierungsmöglichkeiten der IBM-Systeme auf die gesamte BladeCenter-Produktfamilie und Intel-basierte Blades.”
Erst zum Jahreswechsel hat VMware Updates für sein Virtual Center und seinen ESX Server auf den Markt gebracht. Dabei liefert letzterer die Virtualisierungsplattform, Virtual Center übernimmt das Management von ESX-Serverfarmen. “Die innovative Technologie der virtuellen Infrastruktur geht weit über die reine Server-Konsolidierung hinaus und hat eine neue Ebene technischer Raffinesse erreicht”, so Thomas Kühlewein, Regional Sales Director Central Europe bei VMware.
Mit ESX Server 2.5 und Virtual Center 1.2 habe man den Einsatzbereich der virtuellen Infrastruktur im Unternehmen erweitert, durch eine verbesserte Integration mit Speicherlösungen und anderen Computer-Ressourcen. Auch die Möglichkeiten für die Systemwiederherstellung und die Unterstützung von Blade-Servern habe man ausgedehnt.
Microsoft spielt VMware den Ball zu
Das Geschäft des Virtualisierungsspezialisten brummt – zwischen 2003 und 2004 konnte VMware seinen Umsatz um 100 Prozent steigern. Und wo sowohl aktuelle Zahlen als auch Marktforscher blühende Landschaften versprechen, kann natürlich auch Microsoft nicht weit sein. Ist es auch nicht – seit Ende vergangenen Jahres mischt Redmond mit seinem ‘Virtual Server 2005’ in dem vielversprechendem Geschäft mit.
“Das Thema Virtualisierung wird durch Microsoft sehr schön in den Markt getragen, Anwender beschäftigen sich dadurch mehr damit”, sagt Kühlewein und scheint sich über den wachsenden Konkurrenzdruck fast zu freuen. “In 2004 hat uns das nicht geschadet, eher das Gegenteil. Durch Microsoft hat die Technologie eine gewisse Marktreife erreicht. Unternehmen, die sich mit dem Thema beschäftigen, kommen am Ende aber oft zu VMware.”
Diese Aussage hat wenig mit zähneknirschender Höflichkeit gegenüber der Konkurrenz zu tun. Denn Microsoft unterstützt mit seinem Virtual Server hostseitig nur Windows Server 2003. Schließlich richtet sich die Software vor allem an Kunden, die ältere Betriebssysteme installiert haben und mit der neuen Hardware von NT auf Windows Server 2003 migrieren wollen, aber noch ältere Anwendungen haben, die nicht vom neuen Netzwerkbetriebssystem unterstützt werden. Über die Nutzung von Virtual Server können sie einerseits upgraden und neue Funktionalität nutzeren, andererseits sind sie nicht gezwungen, ihre alten Anwendungen wegzuwerfen. Sie können sie in ihrer alten, aber nunmehr virtuellen Umgebung laufen lassen.
Klassisches Beispiel ist Windows NT: Da Redmonds Support zum Jahreswechsel ausgelaufen ist, sind die NT-Kunden nahezu gezwungen, etwas zu unternehmen – und am Ende wollen sie oft mehr, als Microsoft lieb ist. “Da kommt es immer wieder zu Diskussionen mit Kunden, die alles virtualisieren wollen”, sagt Martin Ulrich, Product Solution Manager Infrastructure bei Microsoft, im Gespräch mit silicon.de. Dennoch verfolgt Redmond weiter konsequent seine Linie. “Wir wollen nicht Kunden unterstützen, die andere Betriebssysteme einsetzen. Wir wollen Microsoft-Kunden ein Virtualisierungstool bieten.”
Ulrich wird sogar noch deutlicher. “Wenn es um die Virtualisierung im Linux-Unix-Umfeld geht, gibt es im Mitbewerberumfeld bessere Produkte.” Es ist unschwer zu erraten, dass er damit auf VMware anspielt. Aber auch IBM weist ausdrücklich darauf hin, dass sich mit der Virtualization Engine nicht nur IBM-Systeme managen lassen. Die Software könne auf existierende Systeme aufsetzen und so Virtualisierung in heterogene Landschaften einbringen.
Open-Source-Alternative in den Startlöchern
Der IBM-Konzern ist es auch, der der Open-Source-Virtualisierungs-Technologie Xen einen entscheidenden Schub verpassen könnte. So will Big Blue im Rahmen seines sHype-Projekts eine sichere Virtualisierungsschicht namens ‘Secure Hypervisor’ entwickeln und diese später in Xen integrieren. Das hatte IBM den Xen-Entwicklern vor kurzem amtlich mitgeteilt.
Das könnte auch für Novell und Red Hat interessant sein, schließlich arbeiten sie derzeit an Plänen, eine Virtualisierungs-Technologie in ihre jeweilige Linux-Distribution zu integrieren. Xen ist hier der eindeutige Favorit. Dessen Entwickler wollen nun innerhalb der nächsten Wochen die Firma XenSource gründen, um Anwendern den nötigen Support zu bieten. Zudem verhandeln Chiphersteller, Linux-Distributoren und Plattformhersteller derzeit darüber, ein Xen-Konsortium zu gründen, das die Technologie vorantreiben soll.
“Vor allem bei großen und mittelständischen Kunden gibt es derzeit starke Virtualisierungstendenzen”, sagt Microsofts Solution-Manager Ulrich. Das dürfte im speziellen Fall auch damit zu tun haben, dass Redmond zum Jahrewechsel den Support für Windows NT auslaufen ließ. Virtual Server 2005 soll bei der möglichst reibungslosen Migration auf Windows Server 2003 helfen.
Doch sowohl bei Microsoft als auch bei VMware spielt daneben ein anderer Kundenstamm eine zunehmende Rolle. “Die Masse der Einsätze findet im Bereich Test und Entwicklung statt”, sagt VMware-Experte Kühlewein. Programmierer und Softwarehersteller greifen auf die Virtualisierungssoftware zurück, um mit ihr eine Testumgebung für ihre neuen Entwicklungen aufzusetzen. Bei Microsoft will man den Markt ab dem kommenden Sommer deshalb noch gezielter angehen.
Damit der jedoch weiter erschlossen werden kann, ist nach den Worten von Ovum-Analystin Grimme ein einheitlicher Industriestandard eine entscheidende Voraussetzung. Derzeit gebe es zwar eine Reihe verschiedener Lösungen, die jedoch zueinander nicht kompatibel sind. “Das ist derzeit der große Hemmschuh”, so Grimme. “Die Gründung eines solchen Standards, der es den Anwendern erlaubt, zwischen den etablierten IT-Service-Providern zu wechseln, wird eine einschneidende Veränderung für die IT-Service-Landschaft sein.”
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…
Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.
Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.