Der Markt für Speichersysteme boomt seit Jahren. Die Vielfalt an Konzepten ist kaum mehr zu überschauen. Unter dem Schlagwort ‘Virtualisierung’ wollen die Anbieter nun das Management der Datenspeicher nicht nur vereinfachen, sondern auch durch mehr Flexibilität effizienter gestalten.
Bei Speichervirtualisierung geht es im Kern darum, dafür zu sorgen, dass Datenspeicher auch unterschiedlicher Hersteller sich verhalten wie ein großer Speicher. Auf diese Weise reduziert sich theoretisch die Verwaltung aller im Unternehmen eingesetzten Speichersysteme, so genannter Arrays, auf ein einziges.
Eine erste Stufe der Virtualisierung stellt bereits die Einführung eines SANs selbst dar. Dabei werden die zu speichernden Daten mit Glasfaserleitung vom Server über Switches in die Speichernetze eingespeist. Deren Verwaltung geschieht weitgehend unabhängig von den operativen Netzen. Nach einer Beispielrechnung von Forrester Research halbieren SANs die Speicherkosten gegenüber klassischen, direkt im oder am Server angebrachte Speichersysteme. Besonders drastisch sind die Einsparungen beim Personal (65 Prozent).
Üblicherweise sind mit Virtualisierung Verfahren gemeint, die es erlauben, Platten physikalisch so zu organisieren, dass sie den Servern wie ein einziger großer Speicher erscheinen, dessen Ressourcen sich den Anwendungen je nach Bedarf zuweisen lassen. Ziel ist es, diese Zuweisung irgendwann einmal vollständig zu automatisieren. So weit ist die Technik jedoch noch nicht. Noch muss der Speicher von Hand vom Administrator freigegeben und dann in einem zweiten Schritt über das Betriebssystem für das benötigte Dateisystem formatiert werden.
Silos haben auch Vorteile
Bislang wurden wichtige Anwendungen wie etwa die betriebswirtschaftliche Software in so genannten Silos organisiert, bei denen jede Applikation ihren eigenen Speicher hat, der in aller Regel viel Platz verschwendet, weil er auf Höchstlast ausgelegt werden muss. Außerdem ist es erforderlich, diese Silos separat zu warten. Dennoch haben sie Vorteile. Bei Ausfällen von Plattenspeichern ist immer nur die dazugehörige Anwendung betroffen.
Bei virtualisierten Speichersystemen dagegen kann ein Defekt alle darauf zugreifenden Applikationen in Mitleidenschaft ziehen. Dagegen schützen sich die Administratoren, indem sie Raid-Level einrichten, bei denen Daten physikalisch so auf mehrere Platten verteilt werden, dass sie sich bei einem Ausfall von den noch funktionierenden Systemen rekonstruieren lassen. Auch das Raid-Verfahren lässt sich als eine Virtualisierungsstufe auffassen, da die Anwendung nichts von der komplexen Datenverteilung innerhalb des Systems zu wissen braucht. Die Steuerung übernimmt der vom Administrator justierte Raid-Controller.
Raid-Verfahren haben jedoch ihre Grenzen, so dass es ratsam ist, den Speicherplatz in so genannte Disk Groups aufzuteilen. Insbesondere bei Datenbanken sollten die Log-Files und die Datenbank selbst in unterschiedlichen Gruppen liegen, so dass beim Ausfall einer Gruppe der Inhalt aus der jeweils anderen rekonstruiert werden kann. Solche virtualisieten Speichersyteme lassen sich auch miteinander verbinden. Solange so ein Array-Verbund von nur einem Hersteller stammt, lässt er sich dann auch wie ein Speicher verwalten. Als unverträglich erweisen sich insbesondere Mainframe-Systeme und solche aus der Unix- beziehungsweise Windows-Welt.
Wenn Infrastrukturen fusionieren
Immer öfter kommt es jedoch vor, dass etwa bei Firmenfusionen oder der Konsoliderung in Konzernen ganze SANs untereinander verbunden werden sollen. In solchen Fällen wird die Steuerung der Arrays von einem dritten System übernommen. Hewlett-Packard beschreibt diesen Vorgang als ein Außerkraftsetzen der herstellerspezifischen Controller, durch ein System, das bei HP ‘Casa’ heißt. Es kennt wie vorher die Management-Software der Arrays die physikalischen Platten und ihren Aufenthaltsort, gaukelt den Servern aber vor, es gäbe nur einen riesigen unternehmensweiten Speicher. Ein analoges System entwickelt die IBM unter der Bezeichnung ‘Total Storage Virtualisation’.
Beide Systeme ziehen eine Trennschicht zwischen physikalischem Speicher und Anwendungen ein. Durch ihre Vermittlung geht zwar etwas Leistung verloren, dafür aber wird es im Prinzip möglich, alle Speicher im Unternehmen einzubinden und Redundanzen zu eliminieren. Im Gegensatz zur Array-Virtualisierung können zudem Fremdsysteme eingebunden werden.
Das Virtualisierungskonzept bleibt nicht auf Speicher beschränkt. Es gehört zu dem generellen Trend der IT-Industrie, Anwendungen und Ressourcen voneinander zu trennen, um so die Unternehmen in die Lage zu versetzen ihre Ressourcen, gleichgültig ob Speicher, Bandbreite oder Rechenleistung, flexibel an veränderte Geschäftsbedingungen anpassen zu können.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…