silicon.de: Analysten sind sich einig: Die hybride Cloud hat eine große Zukunft vor sich. Aber geht dieser Trend zur hybriden Cloud nicht auf Kosten der Public Cloud?
Rosendahl: Public-Cloud-Modelle werden im nächsten Jahr einen deutlichen Aufwärtstrend erleben. Unternehmen werden ihre interne Cloud-Infrastruktur erweitern, sie durch die Public Cloud ergänzen. Dies ist natürlich dann sinnvoll, wenn die Rechenkapazität in der Private Cloud ausgelastet ist. In der IT sprechen wir dann von einem “Cloud Burst” – verbunden mit der Public Cloud bauscht sich die Private Cloud also regelrecht auf. Vorteil dieser hybriden Cloud-Kombination sind die niedrigen IT-Kosten. Denn das Unternehmen zahlt für mehr Rechenressourcen nur dann, wenn es sie auch wirklich benötigt. Was aber nicht weniger wichtig ist: Die nächste Generation an Datensicherungs-Lösungen muss unbedingt beide Cloud-Modelle absichern können.
silicon.de: Die Public Cloud als Erweiterung virtualisierter Infrastrukturen – viele CIOs werden hier das Sicherheitsrisiko scheuen, gerade wenn es um das Thema Backup geht. Firmen wollen doch gerade im Notfall maximale Verfügbarkeit und Sicherheit?
Rosendahl: Neben den Mitarbeitern sind die Daten eines Unternehmens doch sein höchstes Gut. Noch mehr als der End User muss es sich darauf verlassen können, dass seine empfindlichen Daten vor Angriffen geschützt sind. Beim Thema Datensicherung und Disaster Recovery (DR) hat sich die Public Cloud aber bereits jetzt bewiesen. Denken wir nur einmal an die Datenverluste, die Hurrikan Sandy einigen Firmen beschert hat. Solche Katastrophen sind glücklicherweise nicht die Regel, aber man muss sie einkalkulieren.
Unternehmen der verschiedensten Branchen nutzen Public Clouds als sichere Offsite-Ressource. Und ihre Nutzung gewinnt sowohl bei Großunternehmen als auch beim Mittelstand deutlich an Zugkraft. Denn sie alle suchen nach einer günstigen Möglichkeit für die Implementierung von Strategien für DR und die langfristige Archivierung von Daten. DRaaS-Anbieter befreien IT-Kunden von der lästigen Aufgabe, eine zusätzliche Infrastruktur aufzubauen, nur um ihren Disaster Recovery-Plan überhaupt umsetzen zu können. Und das eignet sich insbesondere für kleinere Unternehmen, die in den meisten Fällen nicht über die Möglichkeiten verfügt, solch ein System alleine aufzubauen.
silicon.de: Eine weitere Quantum-Prognose für 2013: Datensicherung der Enterprise-Klasse zu Endanwender-Preisen werden Realität. Haben Sie dafür auch konkrete Preisbeispiele?
Rosendahl: Je nachdem wie groß der Bedarf des Kunden an Kapazitäten ist, variiert der Preis der Q-Cloud pro Monat von ein bis fünf Cents pro Gigabyte. Dieses Preisniveau unterliegt der Grundannahme, dass Kunden eine Quantum DXi-Deduplizierungsappliance vor Ort installiert haben und somit eine typische Deduplizierungsrate von 15:1 erreichen. Zahlreiche andere Consumer Cloud Services schwanken preislich zwischen 10 bis 50 Cents pro GB/Monat. Einige wenige Angebote kombinieren Deduplizierung mit lokalen Backups. Diese Variante führt jedoch automatisch dazu, dass ein Kunde für die Vorhaltung der gleichen Menge Daten wesentlich mehr ausgeben muss. Wir haben einen Kostenrechner entwickelt. Mit dessen Hilfe können Kunden feststellen, wie hoch die Kosteneinsparungen mit Nutzung der Q-Cloud im Vergleich zu herkömmlichen Cloud-Storage-Angeboten sind.
silicon.de: Was bedeutet das Cloud-Abonnement-Modell “Just in Time” genau?
Rosendahl: Preisgestaltung per Abonnement ermöglicht einen “Pay as you grow-Ansatz” für die Datensicherung. Oder in anderen Worten: Kunden kaufen zusätzliche Speicherkapazität ausschließlich, wenn sie diese benötigen. Dieser Ansatz nimmt den Druck von den IT-Managern, die typischerweise vom Einkauf aufgefordert werden, erforderliche Budgets Jahre im Voraus zu budgetieren. Auf diese Art begleiten einen die Geister der Vergangenheit über lange Jahre. Mit dem Abonnement-Modell werden Investitions- in Betriebskosten umgewandelt. Kunden vermeiden mit dieser Preisgestaltung Kosten für unternutzte Hardware. Stattdessen eröffnet sich die kostengünstige Alternative, ein Offsite-Backup- und DR-Lösung zu nutzen.
silicon.de: Welcher Cloud-Trend, der für 2012 hoch gehandelt wurde, hat 2013 ausgedient?
Rosendahl: Das Thema Datensicherheit in der Cloud hat wahrscheinlich einen zu großen Hype erfahren – noch bevor es überhaupt eine ausgereifte Lösung gab. Es ist ein Kernpunkt, von dem viele dachten, er könnte bis dato schon vollständig gelöst werden. Technologien wie die Verschlüsselung von Data in Motion, die durch die zunehmende Verbreitung von portablen Endgeräten massiv zugenommen haben, sowie Data at Rest sollen die Sicherheitsbedenken der User ausräumen. Tatsächlich aber ist diese Technologie häufig noch nicht bei den Anwendern angekommen.
silicon.de: Vielen Dank für das Gespräch!
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…
Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.
Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.