Downtime reduzieren
Datenverluste sind in großen Unternehmen die Regel und nicht die Ausnahme. Laptops werden gestohlen, eine Computervirenseuche bricht aus, Magnetplatten crashen oder Dateien werden versehentlich gelöscht oder verändert. Folgerichtig gehört Backup seit jeher zu den Routine-Aufgaben der IT-Abteilung, zumal sich so sogar Datenverluste bei Katastrophen wie Feuer im Rechenzentrum oder Hochwasser vermeiden lassen. Ein Artikel von Andreas Lappano, Key Account Director bei CA Technologies.
Routine beim Backup hat viele gute Seiten, kann aber auch gefährlich werden. Die Gefahr der Routine rührt vor allem daher, dass die Prozesse des Backup als beherrscht und die Probleme als gelöst angesehen werden. Dabei müssen die Backups der Dynamik in der Weiterentwicklung der Unternehmen und ihrer IT-Infrastrukturen permanent folgen, wenn es beispielsweise um neue Anwendungen des Mobile Computing oder um neue Technologien wie Virtualisierung oder Cloud-Architekturen geht. Außerdem kann auch beim Backup selbst der technische Fortschritt Zeit und Geld sparen, etwa dank der Nutzung innovativer Technologien wie Virtual Tape, Disk-to-Disk-Backup oder Deduplizierung.
Aus diesen Gründen gilt es, auch bestens bewährte Backup-Verfahren regelmäßig auf den Prüfstand zu stellen und auf Optimierungspotentiale abzuklopfen. Gleichzeitig sollte das eigentliche Augenmerk mehr auf die Recovery gelenkt werden – also darauf, wie schnell die Daten im Falle eines Falles wiederhergestellt werden können und wie viele Daten trotz Datensicherung verloren gehen könnten. Die Rede ist von akzeptabler Wiederanlaufdauer (Recovery Time Objective, RTO) und vom garantierten Wiederanlaufzeitpunkt (Recovery Point Objective, RPO).
Das geschieht in der Praxis nicht mit der gebotenen Sorgfalt, wie eine aktuelle CA-Studie mit dem vielsagenden Titel ‘Avoidable Cost of Downtime’ zeigt. Demnach schlägt die Zeit, die für die Reparatur von fehlerhaften IT-Systemen aufgewendet werden muss, in einem durchschnittlichen europäischen Unternehmen mit 263.347 Euro jährlich zu Buche, allein deutsche Unternehmen büßen aufgrund von IT-Ausfällen insgesamt mehr als 4 Milliarden Euro Umsatz ein.
Laut Studie dauert es nach dem Server-Ausfall selbst – also bis das IT-System wieder hochgefahren ist und regulär funktioniert – zusätzlich durchschnittlich 4,2 Stunden, um die Daten wiederherzustellen. Auf die deutsche Wirtschaft hochgerechnet wären dies weitere 150.000 Stunden, in denen der Unternehmensbetrieb nicht ganz rund läuft. In dieser Phase ist die Umsatzgenierung des Unternehmens durchschnittlich um bis zu 21 Prozent beeinträchtigt.
Das Bemerkenswerte: Weil bei vielen Unternehmen die Datenschutzrichtlinien nicht so gut greifen, wie sie könnten, dauern Ausfälle länger als nötig. Deshalb könnte ein großer Teil dieser Kosten beziehungsweise Umsatzverluste durch bessere Backup-Strategien vermieden werden, die sich auf die Geschwindigkeit bei der Data Recovery konzentrieren. Denn noch allzu oft richtet der CIO sein Augenmerk routinemäßig auf ein zuverlässiges Daten-Backup. Dabei vernachlässigt er aber den Aspekt, wie schnell sich die Daten im Falle eines Systemfehlers wiederherstellen lassen.
Genau dieser Aspekt der ‘Geschwindigkeit der Datenwiederherstellung’ kann für Firmen Ausgangspunkt sein, ihren Bedarf in Sachen Disaster Recovery und den Einsatz der passenden Lösung für die Datenwiederherstellung und für das Backup zu überprüfen. Dabei geht es auch um den Wiederanlaufszeitpunkt, definiert durch die letzte Datensicherung, die klassisch nachts auf Magnetband erfolgt. Das hieße dann im Störungsfall: Alle an diesem Tag eingegebenen und veränderten Daten sind verloren; die Transaktionssysteme fallen bis auf den Stand der nächtlichen Datensicherung zurück. Ist das nicht akzeptabel, gibt es heute diverse Backup-Optionen wie regelmäßige Snapshots des aktuellen Datenbestandes oder die kontinuierliche Datensicherung (Continous Data Protection, CDP), um den Umfang des Datenverlustes zu reduzieren.