Bei der Umsetzung von Geschäftsprozessen in IT-Architekturen wird heute viel Geld verschwendet. Einer der Gründe liegt in der Client/Server-Euphorie der neunziger Jahre. Im Vergleich zu den Großrechnern aus den Anfangsjahrzehnten der Datenverarbeitung erschien die damals aufkommende neue Form einer “mittleren Datenverarbeitung” handlich und preiswert. Es entstanden die sprichwörtlich gewordenen Serverfarmen, die mittlerweile nur mit großem Aufwand administrierbar sind, beliebig viele Sicherheitsprobleme aufwerfen, und die vor allem eine miserable Auslastung haben.
Während traditionelle Großrechner Nutzungsgrade zwischen 60 und 80 Prozent aufweisen, kommen RISC-Systeme auf Werte zwischen 30 und 40 Prozent und Server auf der Basis der Intel-Architektur gar nur auf eine Auslastung von 10 bis 15 Prozent. Entsprechende Zahlen hat das Marktforschungsunternehmen Gartner letztes Jahr publiziert. Die Ressourcenvergeudung rührt vor allem daher, dass in den meisten Unternehmen jede größere Anwendung beziehungsweise jeder Geschäftsprozess seine eigene Infrastruktur in Gestalt von Hardware und Software besitzt. Die Welt der IT ist heute noch über weite Strecken so organisiert wie die industriellen Produktionsstätten vor etwa zwanzig Jahren, das heißt noch vor der Einführung schlanker Strukturen mit ihren Liefer- und Verarbeitungsketten, die sich unmittelbar und zeitnah an der konkreten Auftragslage orientieren.
Deutlich bessere Nutzungsgrade lassen sich durch die Virtualisierung von Hardware und Software erreichen. Eine derartige Virtualisierung entkoppelt die konkreten Anwenderwünsche von der verwendeten Hard- und Software. Der Anwenderbedarf wird vielmehr in eine zu erbringende Dienstleistung transformiert, die dafür notwendigen Hard- und Softwaresysteme werden je nach Bedarf zu- oder abgeschaltet. Dadurch lässt sich der Auslastungsgrad auf Großrechner-Werte bringen, ohne dass Großrechner-Preise gezahlt werden müssen. Was aber gleichermaßen wichtig ist: Rechen- und Speicherkapazitäten sind durch die Möglichkeiten einer potenziell weltweiten Vernetzung (‘Grid Computing’) praktisch unbegrenzt erweiterbar.
Verschiedene Virtualisierungsebenen
Derartige Grid-Strukturen werden heute nicht zuletzt dadurch möglich, dass sich die Netzkapazitäten mittlerweile deutlich schneller entwickeln als die eigentliche Rechnerpower, sagt beispielsweise Dr. Joseph Reger, Chief Technology Officer bei Fujitsu Siemens Computers. Dadurch werde es zunehmend unwichtiger, ob eine bestimmte Rechenleistung lokal oder Tausende Kilometer von der abrufenden Stelle entfernt erbracht wird. Durch das Hinzufügen neuer Knoten in das Gesamtnetz lasse sich mittlerweile die Gesamtleistung nahezu linear steigern.
Reger macht allerdings auch auf die Hindernisse aufmerksam, die sich bei der Implementierung solcher weltweit ausgelegter Gitterstrukturen auftun, wobei er wirkliche Grid-Strukturen von Pseudo-Grids abgrenzt: “Echte Grid-Strukturen sind vor allem dadurch charakterisiert, dass die beteiligten Teilstrukturen oder Cluster unterschiedlichen administrativen Domänen angehören. Das unterscheidet sie von paralleler oder bloßer verteilter Datenverarbeitung.”
Solche Strukturen bringen nach Darstellung von Reger aber auch ganz neue Herausforderungen: “Es ist natürlich ein Unterschied, ob zwei oder 300 Systeme verwaltet werden müssen. Mit den heutigen Methoden des Systemmanagements lässt sich Grid nicht machen. Ein Management-System wie beispielsweise Tivoli erkennt derzeit gar nicht die Granularität, die durch Grid-Systeme erzeugt wird”, erläutert der Fujitsu-Siemens-Vordenker.
Systemmanagement-Lösungen, die heterogene und sich ständig ändernde Topologien wie Grid-Systeme effizient überwachen und steuern können, sind derzeit im Entstehen. Beispielhaft genannt seien hier nur das ‘Adaptive Computing’-Konzept von HP, das ‘autonome Computing’ von IBM, die N1-Architektur von Sun oder das Framework ‘Triole’ von Fujitsu Siemens.
Grid-Standardisierung geht langsam voran
Die Zusammenführung und Steuerung von Netzgittern aus unzähligen heterogenen Rechner-, Datenbank- und Speicherkomponenten in der Gestalt eines einzigen einheitlichen Computers bedarf einer ausgeklügelten Middleware und stabiler Standard-Schnittstellen. Schließlich kann der “verteilte Riesencomputer” zumindest in der Tendenz viele verschiedene Unternehmen und Institutionen umfassen.
“Im Prinzip muss die Grid-Infrastruktur den heutigen Web-Services ähneln”, sagt dazu Joseph Reger. Angesichts der komplexen firmenpolitischen Interessenlage und der anspruchsvollen technischen Rahmenbedingungen werde die Entwicklung in diese Richtung nicht übermäßig schnell gehen: “Vor Ende 2006 wird es keine allgemein akzeptierten Standardschnittschnellen im Grid-Bereich geben”, so Regers Einschätzung. Gleichwohl arbeite Fujitsu-Siemens zusammen mit AMD, Cisco, EMC, HP, Oracle, Sun und einigen anderen IT-Schwergewichten sehr intensiv innerhalb der ‘Enterprise Grid Alliance’ (EGA), um solche Standards voran zu treiben.
Das Nicht-Vorhandensein von Grid-Standards bedeutet natürlich nicht, dass nicht schon jetzt Grid-ähnliche Strukturen aufgebaut werden, und das nicht nur im Forschungsbereich wie beispielsweise bei den Hochenergiephysikern. Im Gegenteil: es existieren in der Wissenschaftsgemeinschaft und am freien Markt eine ganze Menge proprietärer Werkzeuge, um Rechner – und Speicherressourcen zu “gridisieren”, so beispielsweise für die Rechner-Gridisierung das Produkt InnerGrid der in Mallorca sitzenden Firma GridSystems oder das mit BMBF-Mitteln entwickelte System ‘Uniform Interface to Computing Resources’ (UNICORE), das seinen Schwerpunkt vor allem in der sicheren Zugangsverwaltung zusammengeschalteter Ressourcen hat.
Zukunftsmarkt Service-Grids
Eine integrierte Zugangs- und Nutzerverwaltung ist neben der Integration der Rechner- und Speicherkapazitäten die dritte Säule eines Grid-Netztes. Das gilt nicht zuletzt dann, wenn die entsprechenden Kapazitäten als Dienstleistung angeboten werden sollen. “Grund ist die hohe Komplexität, die heute ein organisationsübergreifender Zugriff auf Ressourcen mit sich bringt. Das gilt insbesondere für den Sicherheitsbereich, wo zwischen Nutzer und Ressource heute typischerweise drei bis vier Firewalls überwunden werden müssen”, sagt in diesem Zusammenhang Dr.Alfred Geiger, der beim Systemintegrator T-Systems verantwortlich ist für den Bereich ‘Service-Grids’.
Konkret handelt es sich dabei um den Zugriff der Kunden auf Ressourcen und Dienstleistungen von T-Systems. T-Systems ist beispielsweise gerade dabei, für die Gesellschaft für Reaktorsicherheit (GRS) den Zugriff auf Ressourcen verschiedener Provenienz (solche der GRS selbst, solche, die T-Systems als Service-Provider bietet und solche von Kooperationspartnern der GRS) unter einer einzigen Schnittstelle zur Verfügung zu stellen.
Service-Provider wie T-Systems sind – wenn man einmal absieht von Anwendungen im Forschungsbereich – sicher an vorderster Front der Gridisierung. IT-Routine sind solche Projekte aber noch lange nicht. Gleichwohl gibt es auch schon eine Art Konfektionsware in Sachen Grid. Als solche könnte man beispielsweise das FlexFrame-System von Fujitsu-Siemens bezeichnen. FlexFrame ist ein Rechner- und Speichergitter in einem einzigen Schrank, das mit Hilfe geeigneter Software vorzugsweise SAP-Anwendungen konsolidiert. Erst kürzlich hat beispielsweise der weltweit agierende Automobilzulieferer Hella aus dem westfälischen Lippstadt ein solches System installiert.
Dass aber auch bei weit verbreiteten Systemen wie MySAP oder R/3 in Sachen Grid noch viel zu tun ist, macht Joseph Reger deutlich: “Nehmen Sie nur die Grid-Datenbank Oracle 10g, wahrscheinlich derzeit die beste Datenbank der Welt. Die wirklich interessanten Features in den SAP-Systemen sind derzeit für Oracle 10g nicht zertifiziert.” Das heißt aber im Klartext, dass sie der Kunde auch nicht in “optimaler 10g-Form” nutzen kann. Denn kein Anwender wird eine Havarie seiner betriebswirtschaftlichen Kernprozesse riskieren, noch dazu ohne Regress-Ansprüche zu haben. Oft sind es also keine rein technischen Probleme, warum Grid noch etwas dauert.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.