2004: Infrastruktur-Management wird selbständig
Kosten sparen heißt die Devise. Doch bis auch die Admins frei von Kopfschmerzen sind, haben neue RZ-Konzepte noch einen weiten Weg vor sich.
Im Rechenzentrum der Zukunft wandelt ein gutgekleideter Admin (sportlich, nicht älter als dreißig) im weißen Kittel durch sauberste Räume, hält maximal ein Scriptboard in der Hand und notiert hie und da einmal eine Blinkfrequenz an einem der Rechnerschränke, die kilometerlang in Reih und Glied stehen – heterogen und dennoch hübsch anzusehen. Dieses Bild versuchen den Anwendern die Hersteller und Ideenmacher von Hewlett-Packard, Sun oder IBM zu suggerieren. Die Realität dürfte auch im nächsten Jahr anders aussehen. Und wie immer, wenn mehrere Unternehmen gleichzeitig dieselbe Idee umsetzen – untereinander werden die angedachten Software-Systeme bestimmt nicht kompatibel werden. Doch wagen wir einen näheren Blick.
‘On-Demand-Computing’, als Begriff von IBM Ende des Jahres 2002 geboren, wird Big Blue erst in einigen Jahren eine vollständige und funktionierende Umgebung bereitstellen können, die auch tatsächlich mit allen Komponenten der IT stabil kommunizieren kann und alle Systeme erfasst. Doch bislang ist es weitgehend ein Versprechen, dass die Anwender tatsächlich die CPU-Leistung, den Speicherplatz und die Netzwerksauslastung per Knopfdruck oder Tastenklick regeln können. Wer seine IT aber nicht auslagern will, wird an den Konzepten einer einfacher handhabbaren Rechenwelt nicht vorbeikommen.
Das On-Demand-Modell von IBM hat erst vor kurzem einen der ersten Großkunden überzeugt: Der Spielzeughersteller Lego hat sogar all seine Hewlett-Packard-Server dafür ausrangiert. Doch warnen die Fachleute der Branche bereits davor, die Korken zu früh knallen zu lassen. Es gebe noch sehr viel Verwirrung bei den Kunden, und die Vorteile der IT-Architektur, die nach Bedarf eingesetzt und bezahlt werden kann, sei noch immer zu schleierhaft. Aufklärungsarbeit tue hier not.
Auch wenn sich Analysten angesichts ähnlicher Ambitionen von Sun Microsystems und Hewlett-Packard einig sind, dass die Vision bis 2007 ein Standard in der IT sein wird, raten manche von ihnen doch zu mehr Anstrengungen. Tom Kucharvy, President bei dem Bostoner Beratungs- und Marktforschungsunternehmen Summit Strategies, stellt fest: “IBM hat bei der Aufklärungsarbeit seine Sache nicht gut gemacht.” IBM müsse noch viel Erziehungsarbeit leisten, um ein sehr kompliziertes Bündel an Ideen in Einklang zu bringen. “Das Problem ist, dass verschiedene Leute bei IBM selbst immer noch verschiedene Sichtweisen in Bezug auf ‘On-Demand’ haben. Sie geben dieselbe Parole aus, aber wenn man nachfragt, verändert sich die Perspektive je nachdem, aus welcher Fachrichtung der Gefragte kommt; das ist sehr kompliziert und es ist schwierig, hier zu einer übereinstimmenden Aussage zu kommen.”
Kucharvy bekommt Schützenhilfe. Tim Granatir, Vice President of Technical Services beim IT-Unternehmen Interlink Technologies, pflichtet ihm bei: “Ich denke nicht, dass ‘On-Demand’ eine schlechte Idee ist, aber ich bin skeptisch, was IBMs Motive und die resultierende Preisstruktur betrifft.” Er führt ein Beispiel aus der Vergangenheit an, als IBM Batch und CPW auf den iSeries trennte und für die erneute Verbindung einen hohen Preis verlangte. Er sagt: “Viele Leute haben sich dabei die Finger verbrannt und IBMs On-Demand-Processing ähnelt dem anderen Modell insofern, als dass die Prozessoren bereits integriert sind, aber man IBM dafür bezahlt, dass sie aktiviert werden dürfen.”
Dafür und für den Aufbau eines virtualisierten Rechenzentrums fehlt es aber derzeit an geschultem Personal. Hierin sieht Meta-Group-Analyst Steininger das größte Hemmnis bei der Einführung des On-Demand-Computing im Rechenzentrum. Seiner Ansicht nach kann es daher noch mehr als ein Jahrzehnt dauern, bis das Rechenzentrum der Zukunft flächendeckend etabliert ist.
<b>Der Dreisprung wird versucht</b>
Mit den ersten N1-fähigen Produkten, so hieß es von Sun Deutschland im Jahr 2002 um diese Zeit, sei erst in ein paar Jahren zu rechnen, und auch dann ginge dies nicht ohne Akquisitionen oder die aktive Mitarbeit der Konkurrenz ab. Denn N1 soll sich einst verhalten wie “ein heterogenes Netzwerk”.
Der Administrator, so erklärte damals Suns Server-Produktmanager Ingo Frobenius, soll künftig von der “Verwaltung von Boxen” im Rechenzentrum entlastet werden und statt dessen “seiner Qualifikation viel eher entsprechend die Verwaltung von Applikationen” angreifen. Voraussetzung dafür sei aber, dass das Rechenzentrum wie ein einzelner PC betrachtet werden könne. “Bei einem Rechner interessiert den Anwender nicht unbedingt, was beim Arbeiten so alles im Innenleben des Gerätes passiert – entscheidend ist für ihn, dass es funktionsfähig ist”, fasst er den Grundgedanken zusammen.
Wie in einem abgeschlossenen System verbänden sich die einzelnen “Bauteile” und teilten sich die Aufgaben. Dabei geschehe die Festlegung, welche Komponente mit welcher über was für eine Aufgabe spricht, in heuristischer Weise. Das System lege also variabel selbst fest, was wo liegt, und die Prozesse konzentrierten sich auf das Auffinden der gewünschten Daten oder Funktionen. Eine dedizierte Festlegung, “also gewissermaßen eine feste Adressierung”, könne hingegen nicht erfolgen und sei auch nicht Zweck der N1-Umsetzung.
Im Frühling lag dann pünktlich zur Comdex mit dem Blade-Server B1600 die erste greifbare Komplettlösung von Sun in den Regalen, die auch noch N1-fähige Software an Bord hatte und deren Speicherkomponenten ebenfalls ein weiterer Schritt auf dem “Weg zum Rechenzentrum der Zukunft” darstellen sollen. Soweit die ersten Schritte. Und für die Konkurrenz hatte man ein paar Seitenhiebe auf Lager. Vom dritten im Bunde, von Hewlett-Packard (HP), seien die Kunden nun so gar nicht überzeugt, da dieser einfach ein selbstgebautes Datenzentrum hinstellte und das dann als Modell für sein Adaptive Enterprise verkaufen würde.
Das klingt bei HP natürlich anders. Vor allem die eigene Netzwerksoftware kommt der Traditionsfirma hier zupass, um das UDC (Utility Data Center) zu bauen. Das Produkt ‘Nimbus’ soll bald als einheitliche Schicht alle Anwendungen UDC-fähig machen. Erste Kunden verlängern die Labortests. Mit der hauseigenen Managementsoftware von HP ausgestattet läuft bereits ein entsprechendes, angeblich durchgängiges UDC seit September bei Procter & Gamble und bei Philips Europe. Diese Erstprojekte ziehen die IT-Leiter in den Bann, da sie wissen, dass in nächster Zeit vielleicht im eigenen Haus ähnliches zu bewältigen sein wird.
Eine eigene Grid-Initiative zeigt auch, wie der IT-Hase in Zukunft laufen wird: Innerhalb der nächsten 20 Monate sollen alle HP-Produkte Grid-fähig werden. Das Konzept des Grid-Computing stammt ursprünglich aus den Neunziger Jahren. Es sieht vor, dass Computing-Ressourcen – ganz egal, ob es dabei um CPU-Leistung, Speicher oder Anwendungen geht – flexibel und nach jeweiligem Bedarf innerhalb eines Rasters (Grid) an Ressourcen abgerufen werden können.
Dann also vertragen die HP-Rechner auch Oracles neue dicke Datenbank ’10g’. Die Schlagzeilen, die diese Neuerung im Herbst auslöste, haben sehr viel mit skeptischen Kunden zu tun, die an eine funktionierende Grid-Umgebung in nächster Zeit noch nicht so recht glauben wollen. Aber sie sitzen in der ersten Reihe und beobachten akribisch die Veränderungen an der Realisierungsfront. Schließlich wissen sie, dass sie nicht nur neue Technik in Händen halten werden – für einen Techniker immer ganz besonders verführerisch. Sie wissen auch, dass sie sich so manche Routinearbeit sparen können, wenn die hochfliegenden Träume aus den Labors auf den Markt kommen und funktionieren. Doch einstweilen brauchen die Admins und Techniker keinen weißen Kittel, sondern nichts nötiger als bequeme Schuhe. Die übliche Rennerei wird noch eine Weile Bestandteil ihres Alltags sein.