Categories: DataStorage

Die Ära des VM-zentrischen Speichers hat begonnen

Mehr als zwanzig Jahre lang basierte konventioneller Speicher auf Block- oder File-Speicher. Die Speicherwelt war recht einfach und da beide Technologien in der Lage waren Unternehmensapplikationen zu unterstützen, teilte sich der Speichermarkt überschaubar in zwei überlappende Lager auf. Jeweils abhängig vom Anwendungsfall und der Kapazität konnten SAN-, NAS- und DAS-Segmente von einer Vielzahl von Herstellern mit ähnlichen Speichersystemen bedient werden.

Kieran Harty, CEO und Mitbegründer von Speicherhersteller Tintri (Bild: Tintri)

Block-Speicher definierte die erste Ära des Speichers seit den frühen neunziger Jahren. Firmen wie EMC verkauften in dieser Ära auch physisch tatsächlich sehr große Speicherkisten, die die noch recht überschaubare Speichermenge einer jeden Firma zu jener Zeit gut verwalten konnte. Um die Jahrtausendwende verlangte die digitale Transformation und die damit eingehend wachsende Datenmenge nach einem einfacheren Speicher, der vor allem Dateien speichern konnte. Dies war der Beginn der zweiten Ära des Speichers: File-Speicher, seit seiner Einführung auch einfach oft nur „Filer“ genannt. File-Speicher half dabei, hierarchische Daten sehr einfach zu speichern. Nichts deutete auf den Beginn ein neues Zeitalter in der Speichertechnologie hin.

Doch dann kam Virtualisierung und krempelte die gesamte IT-Industrie grundlegend um. Auch die Speicherindustrie blieb nicht verschont: Virtualisierung trennte Speicher von physischen Workloads und stellte die früheren Speichertechnologien vor massive Herausforderungen, die offenbar nur durch einen komplett neuen Speicheransatz lösbar sind. In die Reihe SAN, NAS und DAS reiht sich nun ein weiterer Begriff ein: VAS (VM-Aware Storage, VM-zentrischer Speicher), der nach Block und File nun die dritte Ära des Speichers einläuten könnte: Die Ära des VM-zentrischen Speichers.

Konventioneller Speicher – für Virtualisierung ungeeignet

Die Geschichte von Datenspeichern für Unternehmen reicht Jahrzehnte zurück. Es gab große Speicherlösungen schon für Mainframes lange bevor das PC-Zeitalter für ein exponentielles Datenwachstum sorgte. Der erste Fokus bestand aus DAS (Direkt Attached Storage), die entweder an Server oder PCs angeschlossen waren. Über die Zeit versuchten Organisationen ihre Speicherressourcen mehr und mehr an das gesamte Netzwerk zu liefern, was in NAS- und SAN-Ansätzen resultierte. Konventioneller Speicher, ob direkt oder vernetzt, hat Speicher für Jahrzehnte definiert und würde dies wohl auch noch für viele weitere Jahre tun, wenn nicht infolge Virtualisierung und Cloud die Karten neu gemischt worden wären. In einem modernen Rechenzentrum sind heute jedoch bereits ungefähr 75 Prozent aller Workloads virtualisiert – Tendenz steigend. Ältere Speichertechnologien, die für eine physische Welt entwickelt wurden, eignen sich für Virtualisierung hingegen weniger.

Die beiden heutzutage größten Probleme bei der Speicherung von immer mehr Daten sind Performance und komplexe Verwaltung, wobei Admins vor allem Random I/Os zu schaffen machen, wie sie vermehrt in virtualisierten Umgebungen vorkommen. Virtuelle Umgebungen generieren eben weitaus mehr Random I/Os als physische und bremsen den Speicher damit aus. Server können nun einmal mehrere Tausend VMs unterstützen, jede einzelne davon mit ihrem eigenen I/O-Stream. Konventioneller Speicher kann da einfach nicht mithalten.

Um die technologischen Limitierungen von konventionellem Speicher zu überwinden, begannen Hersteller schnelleren Flash-Speicher zu nutzen, um mehr IOPs zu generieren. Flash kann zwanzigmal geringere Latenzen und Zehntausende IOPs erreichen und das bei hoher Datendichte und geringem Energieverbrauch. Der fallende Preis für Flash half einigen Speicherherstellern von konventionellen, langsamen physischen Speichersystemen, da sie ein teures Flash-Etikett auf ihre Produkte kleben konnten, um ihren alternden Systemen vermeintlich Beine zu machen. Eine Flash-Ebene sollte die Performance-Probleme lösen, über die viele Kunden aufgrund gesteigerter Workloads von Virtualisierung und der Cloud klagten.

Der Beginn der Ära des VM-zentrischen Speichers?

Zwar sind ältere Speichersysteme mit einem hinzugefügten Flash-Speicher schneller als vorher, sie haben aber weiterhin eine fundamentale Beschränkung, da der Speicheransatz konventionell ist – basierend auf LUNs und Volumes. Flash-Speicher gibt einer Organisation eine Menge IOPS an die Hand. Noch besser wäre es jedoch zu wissen, wie dieser Performance-Boost am besten eingesetzt werden kann. Insbesondere dann, wenn die Menge virtualisierter Workloads einer Firma stetig wächst und man so effizient wie möglich wachsen will.

Speicher an sich bietet einem Unternehmen generell ja keinen Mehrwert – den bieten die Anwendungen, die auf dem Speicher laufen. Admins verwalten Anwendungen und benötigen Einsicht in die Performance-Parameter einer jeden individuellen VM – und das in Echtzeit. VM-zentrischer Speicher bietet diese Analysen in Echtzeit und kann somit den Performancebedarf einer jeden VM offenlegen, was dabei hilft, Workloads effizient über verschiedene Typen von Arrays auszubalancieren und somit Ressourcen spart.

Unternehmen, die weniger in konventionellen Speicherkonzepten denken, wie etwa LUNs, Volumes oder Striping, sondern sich auf VMs konzentrieren, werden die Kosten für Speicher besser kontrollieren können. VM-zentrischer Speicher kann den Fokus vom Speicher nehmen und ihn auf Applikationen lenken, wo er auch hingehört.

Block- und Filespeicher waren zu ihrer Zeit revolutionär. Heute können diese Technologien nicht mit den Bedürfnissen von Unternehmen mithalten, die in Virtualisierung und Cloud investieren. Die Transformation hin zu einem vollkommen virtualisierten Rechenzentrum beschleunigt auch den Einsatz von Speicher für dieses Zeitalter: Der Ära des VM-zentrischen Speichers.

Redaktion

Recent Posts

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

1 Tag ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

2 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

3 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

3 Tagen ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

3 Tagen ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

4 Tagen ago