Der lange Weg vom Hersteller zum Versorger
Computing aus der Steckdose und Abrechnung nach Verbrauch hat sich die IT-Industrie als Ziel auserkoren – auf lange Sicht.
Man muss nicht unbedingt Nicholas Carr und seiner ebenso provokanten wie umstrittenen These zustimmen: “IT doesn’t matter” hat er vor einigen Jahren behauptet und vorausgesagt, dass IT aus der ‘Corporate Agenda’ verschwindet weil sie bald so selbstverständlich werden würde wie Strom aus der Steckdose oder Wasser aus der Leitung. Wettbewerbsvorteile würde sie dann keine mehr bringen, sie müsse lediglich verwaltet werden.
Die allerwenigste Zustimmung dafür, dass IT in die Bedeutungslosigkeit versinkt, hat er natürlich von der IT-Industrie bekommen. Die großen Ausstatter von Rechenzentren verkaufen gegenüber Kunden längst keine Kisten mehr sondern Infrastrukturlösungen, die in Wettbewerbsvorteile resultieren sollen. Andererseits teilen sie mit Carr genau diese Vision vom Computing aus der Steckdose, und uns als Anwendern oder Journalisten wird auch 2006 nicht erspart bleiben, das Thema ernst zu nehmen. Selbst wenn wir wissen, dass die Vision noch eine ganze Weile Vision bleiben wird und lediglich die Vorstufen dazu in Form von real existierenden Produkten fassbar werden.
Utility Computing
Als ‘Utility Computing’, ‘On-Demand’, ‘Adaptive Enterprise’ oder ‘Dynamic IT’ versuchen Hersteller wie Sun, IBM, Hewlett-Packard oder Fujitsu Siemens jeweils ihre eigene Variante der Vision Anwendern gegenüber unterzubringen. Die unterschiedliche Nomenklatur ist allerdings bezeichnend für den Stand der Dinge: Jeder der genannten Hersteller entwickelt an den eigenen Grid-Ansätzen und hat bis zur Marktreife noch eine Menge Arbeit vor sich. Wirklich ausgereift sind im derzeitigen Stadium bestenfalls die Slogans und Marketingkampagnen.
Utility Computing befinde sich noch im Versuchsstadium, urteilen denn auch die Analysten der ‘451 Group’. Sie beklagen vor allem, dass die Angebote zwar hier und dort vorhanden sind – doch von Standards oder zumindest Kompatibilität ist noch keine Spur. Außerdem gebe es abgesehen von drei-vier großen Anbietern viel zu wenig Angebote, und auch die Großen hätten nur eine begrenzte Auswahl an echten ‘Pay-as-you-go’-Strukturen im Programm. Vergleichbarkeit ist bis dato ein unerfüllter Anwendertraum.
Immerhin könnten sich die Hersteller bei einigen Ansätzen auf eine Zusammenarbeit zum Wohle des Kunden einigen. Einstweilen werkelt die Enterprise Grid Alliance emsig, um einen verbindlichen Standard zu schaffen. Der Massenmarkt ist damit aber noch nicht erreicht.
Virtualisierung
Die meisten Anwender werden sich nächstes Jahr und noch eine ganze Weile darüber hinaus mit der Vorstufe des Utility Computing beschäftigen müssen, der Virtualisierung ihrer Infrastruktur. Damit lassen sich die Ressourcen eines Rechenzentrums flexibler zuweisen, verteilen und managen, verschiedene Betriebssysteme auf dieselbe Hardware betreiben, und ältere Anwendungen sind trotz Betriebssystem-Updates wie unter der alten Umgebung lauffähig. Auch als Experimentierfeld lässt dich die Technologie nutzen. Dies etwa, um eine Beta-Version zu testen ohne das Produktivsystem zu gefährden. Wer das heute ausprobieren möchte, kann das beispielsweise mit dem Virtual Player von VMware tun.
Markt- und Technologieführer VMware ist zwar der Hersteller, um den man in Sachen Virtualisierung nicht herum kommt, doch die Konkurrenz formiert sich. Microsoft hat seit dem letzten Jahr ein eigenes Produkt auf dem Markt, das Anwendern Betriebssystem-Upgrades schmackhafter machen soll. Und aus dem Open-Source-Lager kommt Xen. Für die neue Version haben Hersteller wie Hewlett-Packard, IBM, Novell und Red Hat Unterstützung zugesagt. Auch Sun wird Portierungen für Solaris 10 und die Prozessorarchitektur Sparc beitragen.