Categories: Management

Daten 2007 – Kontinuierlich, dedupliziert und revisionssicher

Basel II, die wohl für Deutschland wichtigste Compliance-Richtlinie, wird ab dem 1. Januar 2007 verbindlich. Ihre Bedeutung ist erschöpfend beschrieben worden. Nur so viel: Die Richtlinie soll die Risiken für Kreditinstitute bei der Vergabe von Krediten reduzieren. Für die Verwaltung von Dokumenten bedeutet das: Wer nicht über ein IT-Konzept verfügt, das die geforderten Dokumente sicher abgelegt vorhalten kann, bekommt wahrscheinlich keinen Kredit. So einfach ist das.

Schlecht informierte IT-Leiter machen sich daher binnen Jahresfrist noch schnell daran, eine Backup- und Disaster-Recovery-Lösung zu implementieren. In diesem Bereich hat sich 2006 eine Menge getan und er ist deshalb in aller Munde. Der Admin hört ‘Revision und Datensicherung’ und hat schon wie ein Pawlowscher Hund Rücksicherung und Datenwiederherstellung im Kopf. Leider verkehrt.

Backup- und Compliance-Konzepte adressieren völlig verschiedene Geschäftsbereiche. Compliance interessiert Daten, die langfristig in Archiven lagern und verwaltet werden müssen. Backups sichern Dokumente im Online-Status, also solche, die im täglichen Geschäftsbetrieb benötigt werden. Das ist Studien zufolge dem ein oder anderen auch in diesem Jahr nicht wirklich bewusst geworden. Und während die IT-Branche auf dem Revisionssektor 2006 hauptsächlich missionarisch tätig geworden ist, mit mehr oder minder großem Erfolg, und versucht hat, Unternehmen die Regeln sowie deren Einhaltung zu erklären, haben im Backup-Segment gleich zwei neue Technologien von sich reden gemacht: Continuous Data Protection (CDP) und Deduplizierung.

Die abgedroschene Floskel von der ‘Datenflut’ trifft die Situation nach wie vor am ehesten und ist für beide neuen Techniken von Bedeutung. Es werden halt nicht weniger Informationen, die Anwender elektronisch hin und her schieben. Und weil darunter auch kritische und geschäftsentscheidend wichtige Informationen sind, darf kein Bit verloren gehen.

Gegen den Verlust arbeitet CDP. Ziel ist es, den jüngsten und aktuellsten Datensatz vor dem Schadenfall wiederherzustellen. Dafür “übernimmt CDP kontinuierlich die Veränderungen am Datensatz und speichert diese Veränderungen unter Beibehaltung der Originaldaten. Der Datensatz eines beliebigen Zeitpunkts kann so wieder hergestellt werden.”

So definiert es die SNIA und die Hersteller machen ihre eigene Interpretation daraus. Den einen genügt bei der Anforderung ‘kontinuierlich’, Daten in kurzen Zeitintervallen (Snapshots) zu speichern. Die anderen nehmen es genauer und sichern Datensätze in dem Moment, in dem sie verändert worden sind. Das sind Hersteller-Philosophien, die jeweils ihre Berechtigung haben. Schwer hat es der Anwender, wenn alle das gleiche sagen, aber verschiedene Dinge meinen. Einig ist man sich lediglich in zwei Punkten: CDP wird das Backup nicht ersetzen, sondern ergänzen. Jeder braucht ein Backup, aber nicht jeder benötigt CDP.

Gegen die Masse arbeitet Daten-Deduplizierung. Dabei geht es darum, Dateiinhalte zu erkennen und nur solche zu speichern, die nicht bereits abgelegt sind. Auf redundante Datensegmente wird mit Hilfe von so genannten Referenz-Pointern verwiesen. Hersteller wie zuletzt Quantum, die Adic und damit auch Rocksoft übernommen haben, bieten erste Produkte an und sprechen von Reduzierungen von 50:1. Das heißt, es passen 50 Mal mehr Daten auf die Platte als ohne die Herausnahme der Redundanzen.

Auch EMC agiert mit dem kürzlich gekauften Dedupe-Spezialisten Avamar in diesem Bereich und ist sich sicher, dass Dedupe die Datenspeicherung revolutioniert. Hier ist die Rede gar von einer 300-fachen Reduzierung den täglichen Datenaufkommens. Manche hegen für 2007 die Vermutung, dass sich der Markt schnell konsolidieren wird, da die Speicherhersteller, sei es VTL oder NAS, ohne Dedupe nicht mehr lange werden werben können.

Silicon-Redaktion

Recent Posts

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

13 Stunden ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

13 Stunden ago

Thomas-Krenn.AG: viele Pflichten, knappe Ressourcen, mehr freie IT-Welt

IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.

13 Stunden ago

Stadt Kempen nutzt Onsite Colocation-Lösung

IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…

2 Tagen ago

SoftwareOne: Cloud-Technologie wird sich von Grund auf verändern

Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.

2 Tagen ago

KI-basierte Herz-Kreislauf-Vorsorge entlastet Herzspezialisten​

Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.

2 Tagen ago