Categories: NetzwerkeUnternehmen

Virtuelle Strukturen haben sehr reale Probleme

Die Informationstechnik soll die Geschäftsprozesse nicht bremsen, sondern fördern. So banal und selbstverständlich diese Maxime klingt, so schwierig ist sie in der tagtäglichen Praxis umzusetzen. De facto sind die meisten IT-Abläufe immer noch sehr schwerfällig gestaltet, will heißen überdimensioniert, teuer und unflexibel. In vielen Rechenzentren sind im Durchschnitt gerade einmal zwischen 15 und 25 Prozent der Ressourcen ausgelastet.
Das liegt hauptsächlich daran, dass in den meisten Unternehmen jede größere Anwendung beziehungsweise jeder Geschäftsprozess seine eigene Infrastruktur in Gestalt von Hardware und Software besitzt. Die Welt der IT ist heute noch über weite Strecken so organisiert wie die industriellen Produktionsstätten vor zwanzig Jahren, also vor der Einführung schlanker Strukturen mit ihren Liefer- und Verarbeitungsketten, die sich unmittelbar und zeitnah an der konkreten Auftragslage orientieren.

<b>Verschiedene Virtualisierungsebenen</b>

Eine ‘Lean Production’ in der Informationstechnik setzt ausgeklügelte Virtualisierungstechniken auf allen Ebenen, vom Betriebssystem über die verschiedenen Middleware-Layer bis zu den Speichernetzwerken voraus. Wenn eine solche Infrastruktur steht, können die IT-Verantwortlichen nicht nur wählen, wie fein das Virtualisierungsraster sein soll, sondern auch, auf welcher Ebene welche Prozesse angesiedelt werden sollen. So lässt sich beispielsweise die Virtualisierung von Speicher direkt auf dem Speichermedium abwickeln (Array-Virtualisierung), im Speichernetzwerk (mit eigenem Virtualisierungsserver oder im Switch) oder auf der Applikations-Ebene, also auf einer relativ betriebssystemnahen Middleware-Schicht.

Auf der Serverebene reicht die Virtualisierung vom Konzept der virtuellen Maschine, das IBM schon in den sechziger Jahren des letzten Jahrhunderts entwickelt hat, über weltweit verstreute Netzstrukturen, die wie ein einziger Riesenrechner aussehen (‘Grid Computing’), bis hin zu der Vision von der ‘Rechnerleistung aus der Steckdose’, bei der man nur zapft und bezahlt, was man tatsächlich (ver-)braucht.

Ausgeklügelte Virtualisierungsstrategien führen nicht nur zu einer besseren Ausnutzung von Hardware und Software, sondern bilden auch die Voraussetzung für jede Form von service-orientiertem Computing. Dabei handelt es sich um eine mehr oder weniger lose Kopplung zwischen einem IT-Dienstleister und einem IT-Abnehmer, zwischen denen auf der Basis einer vertraglich abgesicherten Dienstequalität lediglich bestimmte Schnittstellen abgesprochen werden.

Programmtechnisch werden die schwergewichtigen Applikationen durch schlanke Funktionskerne abgelöst (Portale), bei denen die gesamte Nutzerverwaltung abgetrennt und in ein eigenes Managementsystem (Identitätsmanagement) ausgelagert ist.

Um freilich zu solch einem konfektionierten Dienstleistungsprodukt zu kommen, bedarf es  nicht nur einer Mentalitätsänderung in den Unternehmen – die ist derzeit in vollem Gange -, sondern vor allem auch einer ausgeklügelten, weitgehend automatisierten Systemmanagement-Software.

<b>Begrifflichkeit der Superlative</b>

Alle großen Systemmanagement-Hersteller – IBM, CA, HP und BMC Software – arbeiten heute an großen Management-Architekturen, welche die beschriebenen Riesengebilde sicher verwalten sollen. Dazu kommen zusätzlich noch Firmen aus der Directory- und Provisioning-Ecke wie Siemens oder Novell, oder Neulinge in diesem Bereich wie Sun mit seiner N1-Architektur.

Eine Begrifflichkeit der Superlative herrscht bei allen Herstellern, wenn es um die Beschreibung und Benennung der großen Management-Architekturen geht, die die IT-Welt im Innersten zusammenhalten soll. IBM spricht von “autonomem Computing” beziehungsweise einer “selbstheilenden Architektur”, CA von der “vorausschauenden Intelligenz” seiner Neugent-Technik, Hewlett-Packard vom “Adaptive Enterprise”, BMC von “Business Service Management”, Sun davon, dass “mit N1 ein ganzes Rechenzentrum wie ein einziges System aussehen soll.”

<b>Gewünschtes Antwortzeitverhalten eingeben – alles andere geht automatisch</b>

Menschliche Administratoren werden in diesen Szenarien nur noch in Havarie- oder sonstigen Ausnahmefällen benötigt. Umgekehrt gilt auch: die manuelle Verwaltung derartiger Management-Strukturen ist überhaupt nicht mehr möglich, weil die Zahl der in Rechnung zu stellenden Parameter so groß ist, dass sie auch ein (ohnehin nicht auftreibbares) Riesenaufgebot von Administratoren nicht konsistent in den Griff bekäme, ganz zu schweigen von den dabei entstehenden Personalkosten.

Tatsächlich sollen Management- und Sicherheits-Werkzeuge neuen Typs die komplette Unternehmens-IT steuern und netzweit gegen Angriffe und Ausspähversuche absichern. Identitäts- und Zugangsmanagement, Verwaltung von Passwort- und Smartcard-Inhalten, womöglich noch in Verbindung mit Biometrie-Daten,  Änderungsmanagement, Softwareverteilung, Konfigurationsmanagement: das sind nur einige der Aufgaben, die alle automatisch ablaufen sollen und bei denen darüber hinaus eventuelle Pannen quasi vorausgeahnt und Fehlfunktionen automatisch behoben werden sollen.

Alles soll dabei so flexibel gestaltet sein, dass Änderungen in den Geschäftsprozessen – etwa im Bereich der Internet-Ökonomie – in der Managementstruktur quasi über Nacht nachgezogen werden können. Und nicht zu vergessen: es soll nicht nur eine relativ abstrakte Infrastruktur in der Management-Software abgebildet werden, sondern in der Tendenz jede einzelne Anwendung mit ihrer aktuellen Versionierung, ihrem Speicherbedarf, ihrer Lastverteilung, den Backup-Mechanismen, und und und … Leitgedanke ist dabei, dem Managementsystem lediglich ein gewünschtes Antwortzeitverhalten für den Geschäftsprozess vorzugeben. Danach sollen sich die Parameter für Hardware und Software bei Servern und Speichermedien von selbst einstellen.

<b>Methoden der Künstlichen-Intelligenz-Forschung</b>

Projekte wie autonomes Computing oder Adaptive Enterprise knüpfen explizit oder implizit an die ambitionierten Projekte aus der Künstlichen-Intelligenz-Forschung der sechziger und siebziger Jahre des letzten Jahrhunderts  an. Prinzipiell stehen die Vorzeichen für einen Erfolg heute besser als damals. Die Methoden sind ausgereifter und die Rechnerpower ist gegenüber der Zeit vor dreißig Jahren fast ins Unermessliche gestiegen. Gleichzeitig wird aber heute anders als damals derartige Software an den wirklich unternehmenskritischen Stellen eingesetzt. Ob das auf das Ganze gesehen eine kluge Entscheidung ist, darf bezweifelt werden. Komplexe Systeme haben nun einmal erheblich mehr Schwach- und Störstellen als weniger komplexe Systeme. Gegen diese technische Binsenweisheit hilft keine noch so ausgeklügelte Software.

Lesen Sie auch : KI-Bluff bei AIOps erkennen
Silicon-Redaktion

Recent Posts

KI auf dem Prüfstand

LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…

17 Stunden ago

Rechenzentren: Deutschland verliert Anschluss

Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…

21 Stunden ago

KI steigert Nachfrage nach hybriden Workplace-Umgebungen

Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…

22 Stunden ago

Hagebau erreicht E-Mail-Sicherheit mit der NoSpamProxy Cloud

Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…

2 Tagen ago

Rechenzentrumsnetzwerke als Schlüssel für Desaster Recovery

Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.

2 Tagen ago

Cybersecurity mit KI: Strategischer Vorteil oder Sicherheitsrisiko?

Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…

2 Tagen ago