Disaster Recovery in der Public Cloud

Henrik Rosendahl. Quelle: Quantum.

silicon.de: Analysten sind sich einig: Die hybride Cloud hat eine große Zukunft vor sich. Aber geht dieser Trend zur hybriden Cloud nicht auf Kosten der Public Cloud?

Rosendahl: Public-Cloud-Modelle werden im nächsten Jahr einen deutlichen Aufwärtstrend erleben. Unternehmen werden ihre interne Cloud-Infrastruktur erweitern, sie durch die Public Cloud ergänzen. Dies ist natürlich dann sinnvoll, wenn die Rechenkapazität in der Private Cloud ausgelastet ist. In der IT sprechen wir dann von einem “Cloud Burst” – verbunden mit der Public Cloud bauscht sich die Private Cloud also regelrecht auf. Vorteil dieser hybriden Cloud-Kombination sind die niedrigen IT-Kosten. Denn das Unternehmen zahlt für mehr Rechenressourcen nur dann, wenn es sie auch wirklich benötigt. Was aber nicht weniger wichtig ist: Die nächste Generation an Datensicherungs-Lösungen muss unbedingt beide Cloud-Modelle absichern können.

silicon.de: Die Public Cloud als Erweiterung virtualisierter Infrastrukturen – viele CIOs werden hier das Sicherheitsrisiko scheuen, gerade wenn es um das Thema Backup geht. Firmen wollen doch gerade im Notfall maximale Verfügbarkeit und Sicherheit?

Rosendahl: Neben den Mitarbeitern sind die Daten eines Unternehmens doch sein höchstes Gut. Noch mehr als der End User muss es sich darauf verlassen können, dass seine empfindlichen Daten vor Angriffen geschützt sind. Beim Thema Datensicherung und Disaster Recovery (DR) hat sich die Public Cloud aber bereits jetzt bewiesen. Denken wir nur einmal an die Datenverluste, die Hurrikan Sandy einigen Firmen beschert hat. Solche Katastrophen sind glücklicherweise nicht die Regel, aber man muss sie einkalkulieren.

Unternehmen der verschiedensten Branchen nutzen Public Clouds als sichere Offsite-Ressource. Und ihre Nutzung gewinnt sowohl bei Großunternehmen als auch beim Mittelstand deutlich an Zugkraft. Denn sie alle suchen nach einer günstigen Möglichkeit für die Implementierung von Strategien für DR und die langfristige Archivierung von Daten. DRaaS-Anbieter befreien IT-Kunden von der lästigen Aufgabe, eine zusätzliche Infrastruktur aufzubauen, nur um ihren Disaster Recovery-Plan überhaupt umsetzen zu können. Und das eignet sich insbesondere für kleinere Unternehmen, die in den meisten Fällen nicht über die Möglichkeiten verfügt, solch ein System alleine aufzubauen.

silicon.de: Eine weitere Quantum-Prognose für 2013: Datensicherung der Enterprise-Klasse zu Endanwender-Preisen werden Realität. Haben Sie dafür auch konkrete Preisbeispiele?

Rosendahl: Je nachdem wie groß der Bedarf des Kunden an Kapazitäten ist, variiert der Preis der Q-Cloud pro Monat von ein bis fünf Cents pro Gigabyte. Dieses Preisniveau unterliegt der Grundannahme, dass Kunden eine Quantum DXi-Deduplizierungsappliance vor Ort installiert haben und somit eine typische Deduplizierungsrate von 15:1 erreichen. Zahlreiche andere Consumer Cloud Services schwanken preislich zwischen 10 bis 50 Cents pro GB/Monat. Einige wenige Angebote kombinieren Deduplizierung mit lokalen Backups. Diese Variante führt jedoch automatisch dazu, dass ein Kunde für die Vorhaltung der gleichen Menge Daten wesentlich mehr ausgeben muss. Wir haben einen Kostenrechner entwickelt. Mit dessen Hilfe können Kunden feststellen, wie hoch die Kosteneinsparungen mit Nutzung der Q-Cloud im Vergleich zu herkömmlichen Cloud-Storage-Angeboten sind.

silicon.de: Was bedeutet das Cloud-Abonnement-Modell “Just in Time” genau?

Rosendahl: Preisgestaltung per Abonnement ermöglicht einen “Pay as you grow-Ansatz” für die Datensicherung. Oder in anderen Worten: Kunden kaufen zusätzliche Speicherkapazität ausschließlich, wenn sie diese benötigen. Dieser Ansatz nimmt den Druck von den IT-Managern, die typischerweise vom Einkauf aufgefordert werden, erforderliche Budgets Jahre im Voraus zu budgetieren. Auf diese Art begleiten einen die Geister der Vergangenheit über lange Jahre. Mit dem Abonnement-Modell werden Investitions- in Betriebskosten umgewandelt. Kunden vermeiden mit dieser Preisgestaltung Kosten für unternutzte Hardware. Stattdessen eröffnet sich die kostengünstige Alternative, ein Offsite-Backup- und DR-Lösung zu nutzen.

silicon.de: Welcher Cloud-Trend, der für 2012 hoch gehandelt wurde, hat 2013 ausgedient?

Rosendahl: Das Thema Datensicherheit in der Cloud hat wahrscheinlich einen zu großen Hype erfahren – noch bevor es überhaupt eine ausgereifte Lösung gab. Es ist ein Kernpunkt, von dem viele dachten, er könnte bis dato schon vollständig gelöst werden. Technologien wie die Verschlüsselung von Data in Motion, die durch die zunehmende Verbreitung von portablen Endgeräten massiv zugenommen haben, sowie Data at Rest sollen die Sicherheitsbedenken der User ausräumen. Tatsächlich aber ist diese Technologie häufig noch nicht bei den Anwendern angekommen.

silicon.de: Vielen Dank für das Gespräch!

Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

2 Tagen ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

2 Tagen ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

4 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

5 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

5 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

6 Tagen ago