Höher, schneller, weiter – die Losung mag zwar für olympische Disziplinen gelten, in der Speicherbranche spielt jedoch ein ganz anderes Kriterium die Hauptrolle: ‘öfter’. Und je öfter ein Produkt Daten sichert, desto näher ist es dran an der jüngsten Speichermethode: Continuous Data Protection, kurz CDP.
Inzwischen haben sowohl Start-ups als auch einige Speicherveteranen CDP-Lösungen vorgestellt. Ein Ausblick nach vorn sei erlaubt und es überrascht wenig, dass der Begriff ‘oft’ von jedermann anders definiert wird. Zeitgefühl ist subjektiv und die Dringlichkeit einer Handlung hängt von verschiedenen Faktoren ab. ‘Oft’ kann nicht exakt beschreiben, welche Zeitintervalle zwischen der einen und der nächsten Speicherung liegen müssen, damit die Aktionen die Definition auch verdient. Je nach Begriffsbestimmung entwickeln sich derzeit verschiedene Konzepte und das, obwohl CDP erst 2005 wirklich auf das Storage-Parkett getreten ist.
Verkehrte Welt: Erst die Methode, dann die Definition
“Eine Definition für CDP gibt es derzeit noch nicht, da echte Funktionalitäten noch in der Entwicklung sind”, sagte Andreas König, Sales-Vize EMEA bei Network Appliance auf der IT-Messe Systems. Das stimmt so nicht, und doch steckt in der Aussage ein wahrer Kern.
Die SNIA, die Vereinigung der Storage-Networking-Industrie, hat sich um eine Definition bemüht: “CDP ist eine Methode, die kontinuierlich Veränderungen am Datensatz übernimmt oder mitloggt und diese Veränderungen unter Beibehaltung der Originaldaten speichert. Der Datensatz eines beliebigen Zeitpunkts kann so wieder hergestellt werden.”
Für die Hersteller Mendocino, Revivio und Storactive beispielsweise, die CDP nach der SNIA-Definition ‘kontinuierlich’ mit ‘andauernd’ übersetzen, ist das System auch nur dann granular genug, wenn Informationen und vor allem deren Veränderung in dem Moment gespeichert werden, in dem sie passieren. Der Administrator kann im Schadensfall die aktuellste Fassung des Datensatzes vor dem Ereignis wieder herstellen, also die, die dem Zeitpunkt des Schadens am nächsten vorgeschaltet ist. Ein Restore soll außerdem von jedem gewünschten Zeitpunkt möglich sein. Das heißt, will ein Anwender oder der Admin nicht den aktuellen, sondern den Informationsstatus von vor 2 Minuten, dann soll er ihn haben können.
Den Data Protection Manager (DPM) von Microsoft verstehen Experten als ‘near-continuous’-Lösung, die oft, aber nicht kontinuierlich Daten einfängt und speichert. Eine dritte Gruppe muss sich den Vorwurf gefallen lassen, im Grunde CDP-ferne Produkte unter dem CDP-Banner anzubieten. Dazu gehört Network Appliance.
CDP und/oder Snapshots
Netapp will nach eigenem Verständnis CDP erweitern und sieht so genannte Snapshots als Teil der CDP-Technologie an. Snapshot ist zweifellos eine tolle Technik, um das klassische Backup zu ergänzen, hat aber im Grunde nicht direkt etwas mit CDP zu tun. Snapshots kreieren in definierten Zeitintervallen ein Standbild des aktuellen Datensatzes. Das Image wird auf einem zweiten Storage-System abgelegt und bei Bedarf bereitgestellt.
Im Unterschied zu CDP läuft die Sicherung aber eben nicht bei jeder Änderung, sondern in festgelegten Intervallen. Netapp reklamiert zwar für sich, “in beliebiger Häufigkeit blitzschnelle, konsistente Backup Images der Datei- und Applikationsdaten” ziehen zu können, so dass “die Snapshots hunderter älterer Datenbestände und -versionen sich sekundäre Speichersysteme kopieren und bereithalten lassen”. Weil das System in Echtzeit und ohne Performance-Einbuße arbeite, entspreche es so “einem weiteren CDP-Kriterium, dem Backup ohne Zeitlimit”. Es bleiben aber feste Speicherzeiten, was nicht mit der Definition der SNIA übereinstimmt.
Microsofts DPM arbeitet ebenfalls mit Schnappschüssen, daher der Beiname ‘halb-kontinuierlich’. Die ‘halbe Sache’ ließe sich auch belegen: DPM nutzt den VSS-Service (Volume Shadow Copy Service), und für den empfiehlt Microsoft nicht mehr als einen Snapshot pro Stunde. ‘Kontinuierlich’ ist das nicht.
CDP ersetzt nicht das klassische Backup
Ob ein CDP-Produkt etwas taugt, wird mittels diverser neuer Messlatten entschieden. Die eine heißt ‘Recovery Point Objective’ (RPO) und definiert die Aktualität des Datensatzes. RPO forscht nach dem jüngsten Punkt, von dem aus sich die Informationen wieder herstellen lassen. RPO bezeichnet den Zeitpunkt, der dem Verlustfall am dichtesten vorgelagert ist. Die andere hört auf ‘Recovery Time Objective’ (RTO) und bemisst die Zeit, die es dauert, die Daten wieder zu beschaffen.
Als Kriterium hinzu kommt das berühmte Backup-Fenster, das die Zeit erfasst, während der das System aufgrund der Rücksicherung nicht verfügbar ist. Die Vorteile der Methode sind reizvoll. Bei CDP geht das Backup-Fenster gen Null, weil die Sicherung während der produktiven Zeit – heute beträgt diese in nicht wenigen Fällen 24x7x365 – im Hintergrund abläuft.
Ist beim klassischen Backup die Rücksicherung sagen wir zwei Stunde her, kann auch nur der Datensatz wieder hergestellt werden, der vor zwei Stunden aktuell war. CDP erreicht mit der kontinuierlichen Speicherung frischere Informationen. Indes: Sind die Originaldaten korrupt, werden sie fehlerhaft auch rückgesichert. Dann kann der Admin gezwungen sein, auf der Zeitschiene weiter zurückzugehen bis hin zu dem Zeitpunkt, an dem die primären Daten noch intakt waren.
Und noch ein Argument trägt die Idee: Statt sich als IT-Manager den Kopf darüber zu zerbrechen, wann ein guter Zeitpunkt für ein Backup wäre, kann er sich ein Stück weit zurücklehnen, weil ohnehin ständig gesichert wird, ohne geplante Ausfallzeit.
Trotzdem ersetzt CDP nicht das klassische Backup. Ergänzung lautet das Stichwort. “Es kommt immer darauf an, welche Informationen man schützen will”, sagte Netapp-Mitgründer Dave Hitz im Interview mit silicon.de. Entscheidend ist also unter anderem die Wichtigkeit des Datensatzes. Manche Anwendungen wie Oracle oder SQL Server brauchen den möglichst aktuellsten RPO, weil hier ein 24 Stunden zurückliegendes Backup zu alte Daten liefert.
Page: 1 2
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…
Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.
Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.