Categories: NetzwerkeUnternehmen

Speichertrends II: Virtualisierung macht Firmen-IT flexibler

Der Markt für Speichersysteme boomt seit Jahren. Die Vielfalt an Konzepten ist kaum mehr zu überschauen. Unter dem Schlagwort ‘Virtualisierung’ wollen die Anbieter nun das Management der Datenspeicher nicht nur vereinfachen, sondern auch durch mehr Flexibilität effizienter gestalten.
Bei Speichervirtualisierung geht es im Kern darum, dafür zu sorgen, dass Datenspeicher auch unterschiedlicher Hersteller sich verhalten wie ein großer Speicher. Auf diese Weise reduziert sich theoretisch die Verwaltung aller im Unternehmen eingesetzten Speichersysteme, so genannter Arrays, auf ein einziges.

Eine erste Stufe der Virtualisierung stellt bereits die Einführung eines SANs selbst dar. Dabei werden die zu speichernden Daten mit Glasfaserleitung vom Server über Switches in die Speichernetze eingespeist. Deren Verwaltung geschieht weitgehend unabhängig von den operativen Netzen. Nach einer Beispielrechnung von Forrester Research halbieren SANs die Speicherkosten gegenüber klassischen, direkt im oder am Server angebrachte Speichersysteme. Besonders drastisch sind die Einsparungen beim Personal (65 Prozent).

Üblicherweise sind mit Virtualisierung Verfahren gemeint, die es erlauben, Platten physikalisch so zu organisieren, dass sie den Servern wie ein einziger großer Speicher erscheinen, dessen Ressourcen sich den Anwendungen je nach Bedarf zuweisen lassen. Ziel ist es, diese Zuweisung irgendwann einmal vollständig zu automatisieren. So weit ist die Technik jedoch noch nicht. Noch muss der Speicher von Hand vom Administrator freigegeben und dann in einem zweiten Schritt über das Betriebssystem für das benötigte Dateisystem formatiert werden.

Silos haben auch Vorteile

Bislang wurden wichtige Anwendungen wie etwa die betriebswirtschaftliche Software in so genannten Silos organisiert, bei denen jede Applikation ihren eigenen Speicher hat, der in aller Regel viel Platz verschwendet, weil er auf Höchstlast ausgelegt werden muss. Außerdem ist es erforderlich, diese Silos separat zu warten. Dennoch haben sie Vorteile. Bei Ausfällen von Plattenspeichern ist immer nur die dazugehörige Anwendung betroffen.

Bei virtualisierten Speichersystemen dagegen kann ein Defekt alle darauf zugreifenden Applikationen in Mitleidenschaft ziehen. Dagegen schützen sich die Administratoren, indem sie Raid-Level einrichten, bei denen Daten physikalisch so auf mehrere Platten verteilt werden, dass sie sich bei einem Ausfall von den noch funktionierenden Systemen rekonstruieren lassen. Auch das Raid-Verfahren lässt sich als eine Virtualisierungsstufe auffassen, da die Anwendung nichts von der komplexen Datenverteilung innerhalb des Systems zu wissen braucht. Die Steuerung übernimmt der vom Administrator justierte Raid-Controller.

Raid-Verfahren haben jedoch ihre Grenzen, so dass es ratsam ist, den Speicherplatz in so genannte Disk Groups aufzuteilen. Insbesondere bei Datenbanken sollten die Log-Files und die Datenbank selbst in unterschiedlichen Gruppen liegen, so dass beim Ausfall einer Gruppe der Inhalt aus der jeweils anderen rekonstruiert werden kann. Solche virtualisieten Speichersyteme lassen sich auch miteinander verbinden. Solange so ein Array-Verbund von nur einem Hersteller stammt, lässt er sich dann auch wie ein Speicher verwalten. Als unverträglich erweisen sich insbesondere Mainframe-Systeme und solche aus der Unix- beziehungsweise Windows-Welt.

Wenn Infrastrukturen fusionieren

Immer öfter kommt es jedoch vor, dass etwa bei Firmenfusionen oder der Konsoliderung in Konzernen ganze SANs untereinander verbunden werden sollen. In solchen Fällen wird die Steuerung der Arrays von einem dritten System übernommen. Hewlett-Packard beschreibt diesen Vorgang als ein Außerkraftsetzen der herstellerspezifischen Controller, durch ein System, das bei HP ‘Casa’ heißt. Es kennt wie vorher die Management-Software der Arrays die physikalischen Platten und ihren Aufenthaltsort, gaukelt den Servern aber vor, es gäbe nur einen riesigen unternehmensweiten Speicher. Ein analoges System entwickelt die IBM unter der Bezeichnung ‘Total Storage Virtualisation’.

Beide Systeme ziehen eine Trennschicht zwischen physikalischem Speicher und Anwendungen ein. Durch ihre Vermittlung geht zwar etwas Leistung verloren, dafür aber wird es im Prinzip möglich, alle Speicher im Unternehmen einzubinden und Redundanzen zu eliminieren. Im Gegensatz zur Array-Virtualisierung können zudem Fremdsysteme eingebunden werden.

Das Virtualisierungskonzept bleibt nicht auf Speicher beschränkt. Es gehört zu dem generellen Trend der IT-Industrie, Anwendungen und Ressourcen voneinander zu trennen, um so die Unternehmen in die Lage zu versetzen ihre Ressourcen, gleichgültig ob Speicher, Bandbreite oder Rechenleistung, flexibel an veränderte Geschäftsbedingungen anpassen zu können.

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

16 Stunden ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

17 Stunden ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

2 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

3 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

5 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

5 Tagen ago