Heiße Trends vertreiben die Langeweile beim Speichern

Für jeden Trend gibt es Abnehmer, doch bei Speicherneuerungen sind die Entscheider traditionell zurückhaltend. Schließlich muss die Technik lange halten.

Für die meisten IT-Entscheider ist dies der bei weitem langweiligste Teil ihrer Rechenschaftsberichte: die Frage, wie die Storage-Technik im vergangenen Jahr gearbeitet hat und ob sie es so, wie sie ist, noch mal tut. Ein Umbau der Speicherei will wohl überlegt sein, schließlich ist er teuer und kann nicht so hopplahopp wieder rückgängig gemacht werden. Deshalb haben sich die Herausgeber des renommierten US-Magazins Storage die Mühe gemacht, die fünf meist diskutierten Trends herauszufischen und von Industriekennern auf ihre Tragfähigkeit hin überprüfen zu lassen.
Da wäre zunächst einmal die auch unter dem Namen Continuous Backup bekannte Technik der Continuous Data Protection, CDP. Darunter versteht der Fachmann Produkte, die akribisch jedes Detail an Veränderung festhalten, das an den zu speichernden Daten vorgenommen wird. Das sind also Protokolle zur Kontrolle des ‘Wer, Wann, Was, Warum und Wo’ einer Datenänderung. Ein CDP-System “merkt sich” auch die einzelnen Zustände vor einer Veränderung und lässt so den ursprünglichen Zustand vor einer so genannten Datenkorruption (einem unerlaubten Vorgang zum Beispiel, oder einem Fehler) schnell wieder auferstehen. Das unterscheidet die Technik auch von den aus der Anfangszeit der Speichervirtualisierung bekannten Snapshots, die in der Regel nur zu fest einprogrammierten Zeiten Momentaufnahmen vom Speichergut machen und nebenbei mehr Speicherplatz für ihre Arbeit und die Ablage aller Snapshots benötigen – bei CDP werden nur die einzelnen Veränderungen festgehalten.

Für Dokumentenanpassung in hochsensiblen Bereichen wie Forschung und Entwicklung oder auch Rechtsprechung und Versicherung ist es eine interessante Sache, diese unternehmerisch oder gesetzlich vorgeschriebenen Protokolle automatisiert zu erstellen und die Manpower aus dieser Sisyphusarbeit abzuziehen. Und wer braucht diese Technik wirklich? Nach Meinung der Speicherexperten nur, wer seine Daten schnellstmöglich rekonstruieren muss und die Flexibilität braucht, die CDP mitbringt. Allerdings seien noch einige Fragen ungeklärt: Ob und inwieweit sich die Technik auf die Datenmenge oder die Performance anpassen lässt und wie die Preisvorstellungen der Hersteller wie Revivio und Xosoft dann aussehen.

Der nächste Trend, der bereits etwas mehr Substanz hat, heißt Intelligent Switching. Hersteller wie Cisco Systems und Maxxan haben erste Produkte, welche die interessantesten bislang Host-basierten Softwarefunktionen direkt auf den Switch setzen. Das erhöhe die Performance, heißt es. Intelligent Switches haben die Replikationssoftware, Spiegelungsfunktionen und Volume Management bereits an Bord. Konsolidierung, Kostenersparnis und Herstellerunabhängigkeit sind die Schlagworte, die in diesem heißen Trend mitgekocht werden. Allerdings rechnen Marktkenner wie Nancy Hurley von der Enterprise Storage Group nicht vor 2006 mit einem breiten Einsatz der Technik. Einer Studie von The Info Pro zufolge sollen in den USA beispielsweise 43 Prozent der Entscheider dann einen Einsatz planen. Der Haken ist aber laut Hurley in der Proprietarität der Lösungen zu suchen – sie sind noch lange nicht in heterogenen Netzen einsetzbar und außerdem zweieinhalb Mal so teuer wie herkömmliche Ports über Fibre Channel, also rät sie zum Abwarten.

Mit der Verbreitung von Netzwerkspeichern (Storage Area Networks – SAN, Network Attached Storage – NAS), mit denen auch mehr Verwundbarkeit der Daten einherging, kam vor einigen Jahren das Thema ‘Speicherverschlüsselung’ auf. Was sehr speziell klingt, ist jedoch ganz trivial: Bei einem dedizierten Speichernetz wird einfach jeder Datensatz beim Ablegen und Verwalten verschlüsselt und beim Abrufen – per Autorisierung prüfbar – wieder entschlüsselt. Als Bestandteil der SAN-Management-Lösung fällt die Verschlüsselungssoftware platztechnisch kaum ins Gewicht. Nur sollte sie nach Meinung der Experten schnell genug arbeiten, um den Speicherprozess nicht unnötig aufzuhalten und aus der Frage nach Sicherheit und Performance keine ‘Entweder-Oder-Frage’ zu machen. Daher raten sie bislang nur solchen Unternehmen zu dieser Entscheidung, die vom Gesetzgeber sowieso zu so etwas gezwungen sind.

Anders verhält es sich mit Beschleunigern, die NAS-Netze auch im Wide Area Network auf Trab halten. So genannte NAS-Accelerators befinden sich zwar noch im Versuchsstadium, erreichen aber schon beachtliche Ergebnisse. So sollen NAS auch über längste Strecken sicher, gut und vor allem schnell funktionieren, so dass eine Auslandsniederlassung ihren Speicherbetrieb mit der Übersee-Zentrale genauso schnell abwickeln kann, also stünden die übergeordneten NAS-Boxen gleich nebenan. Für die Zukunft raten die Analysten den Unternehmen, die NAS einsetzen und externe Anbindung nötig haben, die Entwicklungen in diesem Bereich genau zu verfolgen. Jetzt gebe es aber noch zu viele potentielle Meisterköche am Herd und die Technik sei noch zu unausgegoren.

Endlich verspricht die Speichervirtualisierung als die älteste Neuerung mit vier bis fünf Jahren Produktreife, zumindest fertig für den Einsatz zu sein. Doch die ersten ernst zu nehmenden Produkte gibt es erst seit kurzem, von Firmen wie Hewlett-Packard, Falconstor und Datacore. Ihre Software schafft in einem heterogenen Speicherumfeld – und welches Speicherumfeld ist schon homogen – eine Art gleichmachende Schicht, die die Datensätze leichter verwaltbar macht, weil die proprietären Unterschiede verschwinden. Am schnellsten hat sich IBMs SAN-Volume-Controller mit der gesamten Marktmacht von Big Blue im Rücken durchgesetzt. Die grundlegende Schwierigkeit der Produkte ist aber nach Expertenmeinung geblieben: sie seien extrem schwierig einzupassen und zu verwalten und sollen immer noch Probleme haben, sobald die im Speicherraum vertretenen Firmennamen eine gewisse Anzahl überschreiten, die Heterogenität also bestimmte Ausmaße erreicht.

Die Experten raten bei dem Thema kühl dazu, die Erstanwender zunächst ein wenig für das Gesamtwohl aller kommenden Anwender bluten zu lassen. Und das bleibt auch der Rat für die anderen vier Trends. IT-Leiter, die sich an diese goldene Regel halten möchten, werden bei ihrem nächsten Storage-Rechenschaftsbericht dem dösenden Management wieder nichts Neues zu berichten haben – aber vielleicht kann man auf eine bestimmte Art von Aufregung auch ganz gut verzichten.

Lesen Sie auch : KI-Bluff bei AIOps erkennen