Speicher müssen das Verstehen von Inhalten üben

Die Claims werden neu abgesteckt: Speicher- und Content-Management wachsen zusammen. Doch die automatische Qualifizierung von Speicher steht noch ganz am Anfang.

In einem dramatischen Umbruch befinden sich momentan alle Märkte und Technologien, die als Inhalt die Speicherung und Verwaltung von Dokumenten und Informationen haben. Web und Enterprise Content Management haben inzwischen einen Reifegrad erreicht, der einen neuen Umgang mit den im Unternehmen gesammelten Daten erlaubt. Andererseits sind die Strukturen moderner Speichersysteme mittlerweile so ausgefeilt, dass sie über die Rolle einer intelligenten Datenablage hinaus wachsen können.
Speicherinfrastrukturen, Enterprise/Web Content Management und Dokumentenmanagement wachsen zusammen. Die Übernahme- und Fusionsaktivität unter Herstellern dieser Branchen ist Vorbote einer Entwicklung, die dem Informationsmanagement im Unternehmen eine neue Bedeutung zuweisen wird. Von Information Lifecycle Management sprechen die Hersteller – auch wenn zum jetzigen Zeitpunkt eher eine Vision als ein greifbares Produkt darunter zu verstehen ist.

Die Ursachen für diese Anstrengungen sind einleuchtend: Immer größere Datenmengen müssen aus betriebswirtschaftlichen, wirtschaftstatistischen, politischen oder rechtlichen Gründen immer länger gespeichert werden. Das ist teuer, besonders wenn bestimmte Daten jahrelang Speicherplatz okkupieren, der auch billiger zu haben wäre. Noch schlimmer ist es allerdings, wenn Daten deshalb nicht genutzt werden können, weil sie “in der Versenkung verschwunden” sind, sprich archiviert sind, ohne dass vernünftige Retrieval-Möglichkeiten bestehen. Dabei können durchaus – um nur ein Beispiel zu geben – vier, fünf Jahre alte Rechnungsdaten, denen viele auf den ersten Blick womöglich nur Schrottwert bescheinigten, großen Nutzen bei der Generierung von Anschlussgeschäften bringen. 

<b>Qualifizierung muss sich an Geschäftsprozessen orientieren</b>

Die Notwendigkeit einer exakten Qualifizierung von gespeicherten Informationen ergibt sich aber auch zwingend dann, wenn die IT-Anwendungen in eine service-orientierte Form gebracht werden sollen, weil beispielsweise die Anwendungen in Portaltechnik neu organisiert oder weil bestimmte Geschäftsprozesse durch externe Spezialisten abgewickelt werden sollen. Eine Serverprozess-Virtualisierung ohne entsprechende Speichervirtualisierung ist zwar möglich, aber organisatorisch wenig sinnvoll.  

Qualifizierung von gespeicherten Informationen, alias Information Lifecycle Management (ILM), bedeutet konkret, dass die Informationen klassifiziert und dann einem bestimmten Speichermedium zugeordnet werden. Der Wert der jeweiligen Information bestimmt sich dabei in erster Linie aus der Bedeutung der Geschäftsprozesse, in die sie integriert ist. Natürlich geht auch ein Zeitfaktor in die Qualifizierung ein sowie gesetzliche Regelungen, die eine bestimmte Aufbewahrungsfrist verlangen oder auch eine genau terminierte Löschung.

<b>Der Markt ist in Bewegung: Die wichtigsten Akteure</b>

Inhaltliche Fragen spielen bei der Bewertung von Informationen die entscheidende Rolle. Speichermanagementsysteme werden deshalb in der nächsten Zeit sehr eng mit Datenbanken sowie Content- und Dokumenten-Management-Systemen verknüpft werden. Ebenso wird intelligente Suchmaschinentechnik gefragt sein. Letztere hat sich beispielsweise Hewlett-Packard (HP) zugelegt, als es kürzlich die kleine Technologie-Schmiede Persist übernommen hat. Persist setzt auf eigenständig organisierten Server-Blades (‘SmartCells’) auf, die aus CPU und Speicher bestehen und zu einem größeren Netz verschaltet werden. Die oben angesprochene enge Verzahnung von Rechenleistung und Speicher ist offensichtlich.

HP-Erzrivale IBM verweist in Sachen Speicherqualifizierung vor allem auf die Virtualisierungs-Komponente SAN-File-System, bei dem jede Datei mit Attributen versehen werden kann, die dann wiederum in ein Richtlinien-Regelwerk zur Inhalte-Qualifizierung eingehen können. Als Engine für ein solches Regelwerk kann beispielsweise der gerade angekündigte Multiple Device Manager eingesetzt werden, der alle Speicherelemente auf der Basis der standardisierten ‘Storage Management Initiative Specification’ (ehemals Bluefin) anspricht. Die Brücke zum Content-Management stellt bei IBM der DB2 Content Manager dar.

Auch EMC hat durch den milliardenschweren Kauf des Content-Management-Herstellers Documentum deutlich gemacht, dass man im Geschäft mit der Qualifizierung von Informationen ganz oben mitmischen will. Hier wird aber erst einmal abzuwarten sein, wie schnell EMC die Documentum-Expertise für den Bereich Informationsqualifizierung umsetzen kann.

Durch Partnerschaften will sich Hitachi für das Aufgabenfeld Informationsqualifizierung fit machen. Die Japaner haben enge Partnerschaften mit dem US-amerikanischen Start-up AppIQ sowie dem Münchner Dokumentenmanagement-Spezialisten IXOS geknüpft. Letzterer wurde seinerseits kürzlich von Opentext übernommen.

Eine Kooperation mit dem NAS-Spezialisten Network Appliance ist FileNet eingegangen. Man will neue Möglichkeiten der Speicherqualifizierung aus der Verknüpfung des Fabric Attached Storage System mit dem P8-System von FileNet herausholen.

Mit Lösungsmodulen zum Thema “Storage Utility” packt Veritas seine Speicherqualifizierungssoftware Data Lifecycle Manager zusammen. Mit letzterer lässt sich unter anderem inhaltsorientiert auf alle Speicherressourcen zugreifen. Veritas hat dafür eigens ein Indexierungssystem entwickelt, in das auch Archivbänder eingebunden werden können.

Aus eigener Kraft möchte offenbar StorageTek die Aufgabe Speicherqualifizierung lösen. Die Firma verweist in diesem Zusammenhang vor allem auf die entsprechende Expertise ihrer Berater. Die Firma hat die Informationsqualifizierung schon früh mit den Themen Fernüberwachung (Remote Managed Storage) sowie vollständigem oder teilweisem Outsourcing verbunden.

In herstellerübergreifendem Rahmen widmet sich seit jüngster Zeit auch die Storage  Networking Industry Association (SNIA) dem Thema Qualifizierung gespeicherter Informationen. Das “Data Management Forum” der SNIA soll “ausgefeilte und zuverlässige Methoden für den Schutz, die Aufbewahrung und die Qualifizierung von Informationen” entwickeln.

<b>Speicherqualifizierung gibt es nicht von der Stange</b>

In der Tat ist ja die Qualifizierung von Information kein Produkt, das von der Stange gekauft werden kann, sondern ein langer Prozess, bei dem es auch Rückschläge geben kann. Damit dieser Prozess überhaupt anlaufen kann, muss zunächst einmal eine geeignete Infrastruktur, sprich ein automatisiertes Speichernetz, vorhanden sein. Nur dann kann die jeweils qualifizierte Information auch entsprechend verteilt und auf dem richtigen Speichermedium platziert werden. 

Wenn eine solche Infrastruktur bereit steht, wird man im Anschluss daran ein Regelwerk definieren, das Information qualifiziert und entsprechend verteilt und platziert. Dabei müssen die vorhandenen beziehungsweise noch zu beschaffenden Speichermedien, einschlägige Management-Werkzeuge und die vorhandenen Geschäftsprozesse in optimaler Weise zugeordnet werden. Entsprechende Informationen sollen für die richtige Applikation zur richtigen Zeit und mit akzeptablen Kosten verfügbar gemacht werden. Dafür gibt es (noch) keine Automatismen, sondern lediglich mehr oder weniger gut erprobte Praxisrezepte. Sinnvollerweise wird man mit einigen wichtigen Applikationen in zentralen Geschäftsprozessen beginnen und dieses Geflecht dann sukzessive erweitern.

Lesen Sie auch : KI-Bluff bei AIOps erkennen