Eine hybride Cloud scheint die perfekte Kompromisslösung zu sein: Anwendungen und Daten, die aus Sicht des Unternehmens weniger kritisch sind, werden an einen Dienstleister ausgelagert. Zusätzlich kann das Unternehmen bei kurzfristigen, ressourcenhungrigen Projekten die Infrastruktur des Dienstleisters nutzen und vom Cloud-Prinzip “pay per use” profitieren. Sensible Applikationen und Daten hingegen verbleiben im eigenen Rechenzentrum. Entweder als Private Cloud aufgebaut oder klassisch durch Applikationsserver strukturiert, gilt der On-Premise-Betrieb noch immer als der sicherster Ort für alles Geschäftskritische. In der Praxis zeigt sich jedoch oft, dass der Betrieb einer hybriden Cloud Tücken mit sich bringt.
Mit einer Hybrid Cloud machen sich Unternehmen doppelte Arbeit: Zunächst erfordert der Umbau des eigenen Rechenzentrums in eine Private Cloud einigen Aufwand. Die vorhandenen Ressourcen zu virtualisieren genügt dabei nicht, vielmehr müssen die Anwendungen und der anfallende Datenverkehr priorisiert und neu strukturiert werden. So lassen sich vorhandene Ressourcen zwar effektiver nutzen, die Skalierbarkeit bleibt aber limitiert.
Soll die IT-Infrastruktur flexibel und kostentransparent erweitert werden, beginnen Unternehmen damit, sich mit Public-Cloud-Angeboten zu beschäftigen. Man zahlt nur, was man nutzt, kann nach Bedarf hoch skalieren und ebenso unkompliziert Ressourcen abschalten – wesentliche Vorteile des Cloud Computing. Doch in der Praxis lebt der Nutzen der zusätzlichen Ressourcen von der Integration mit den On-Premise-Anwendungen. Denn Projekte, die losgelöst von allem anderen zeitweise IT-Infrastrukturen benötigen, lassen sich mit der Public Cloud zwar perfekt umsetzen, machen aber nur einen Teil des täglichen Geschäfts aus.
In der Praxis bedeutet das, dass der Aufwand, der bei der Integration von Private und Public Cloud und deren Verwaltung entsteht, die eigentlichen Vorteile des Cloud Computing auffrisst. In einem solchen Szenario ist es kaum möglich, innerhalb kurzer Zeit externe Ressourcen zu nutzen, erst recht nicht durch die Fachabteilungen selbst, denn die Synchronisation beider Clouds ist anspruchsvoll. So kann die Cloud nicht wirklich flexibel eingesetzt werden. Darüber hinaus hält sich die Kostentransparenz ebenfalls in Grenzen – die eigenen Systeme müssen weiterhin unterhalten und der Management-Aufwand für die hybride Cloud abgedeckt werden.
Oft sind es Sicherheitsbedenken, die Unternehmen davon abhalten, Infrastruktur-Services stärker zu nutzen. Man wolle die Datenhoheit nicht aus der Hand geben, die Daten seien zu sensibel. Die Praxis zeichnet zumeist ein anderes Bild: Kaum ein Unternehmen ist in der Lage, zu vertretbaren Kosten ein solches Level an IT-Sicherheit aufzubauen, wie ein spezialisierter Dienstleister dies kann.
Zum einen bieten Infrastruktur-Anbieter hochsichere und redundante Rechenzentren. Es ist ihr Kerngeschäft – ein großer Teil ihrer Arbeit beschäftigt sich mit der Absicherung der Infrastruktur und der darauf gespeicherten Daten. Zum anderen bezieht sich das Sicherheitsverständnis keineswegs nur auf die physische Sicherheit. Je nach Bedarf kann der Kunde die benötigte Infrastruktur komplett gemanagt mieten.
Wie bereits beim Outsourcing und Hosting ist dies genau einer der wichtigen Punkte beim Cloud Computing: Unternehmen müssen sich nur noch minimal um die IT-Infrastruktur kümmern und überlassen Experten Verwaltung und Management – inklusive Sicherheitsfeatures. Über Service Level Agreements wird genau geregelt, welche Anforderungen der Dienstleister einhalten muss. Infrastruktur-Dienstleister wie ProfitBricks gewährleisten dies durch die Nutzung von zertifizierten Rechenzentren und das Einbinden von Managed-Services-Partnern.
Mit dem Fall der Safe-Harbor-Vereinbarungen im vergangenen Jahr, erhielt die Diskussion, ob und wann Dienstleister die Daten ihrer Kunden an Behörden und Geheimdienste herausgeben (müssen), neuen Zündstoff. Der Kern des Themas ist in der Tat brisant: Es geht um nicht weniger als den Schutz sensibler Daten.
So können Dienstleister mit Sitz in den USA zur Herausgabe von Daten gezwungen werden, wenn die US-Regierung das für nötig hält (seit Snowden ist bekannt, dass das sehr häufig sein kann), ohne dass deutsches Recht dabei eingehalten wird – ganz egal in welchem Land das Rechenzentrum steht, in dem sie die Daten ihrer Kunden speichern. Nach Ansicht der US-Gerichte und -Behörden zählt der Firmensitz als rechtliche Grundlage – Serverstandort Deutschland ist demnach als Sicherheits- und Qualitätsmerkmal nicht ausreichend. Im Umkehrschluss bedeutet dies, dass Dienstleister, die ihren Geschäftssitz in Deutschland haben, denselben strengen deutschen Datenschutzbestimmungen unterliegen wie ihre Kunden hierzulande. Solche Zwangsauskünfte sind übrigens in Deutschland kaum möglich.
Vielleicht ist es die Bezeichnung “Public Cloud”, die darauf schließen lässt, die Infrastruktur-Services von Dienstleistern wären öffentlich zugänglich. Das sind sie keineswegs, nicht einmal der Dienstleister erhält Einblick in die gespeicherten Daten. Dieser ist ihm gesetzlich untersagt. Zudem haben die Dienstleister ihre Cloud-Angebote den Bedürfnissen der Kunden angepasst: Rechenkapazitäten und Services können von Kunden dediziert genutzt werden, ohne Noisy Neighbour oder Zugriff durch Fremde auf dieselben Ressourcen. Man könnte es als eigenes Datacenter bei einem Infrastruktur-Spezialisten sehen.
Die hybride Cloud ist eine Übergangs- und Nischenlösung. Sie mag eine Weile sinnvoll sein – solange bis die vorhandene Hardware abgeschrieben ist. Und es gibt auch Sonderfälle, in denen Daten das Unternehmen unter keinen Umständen verlassen dürfen. Auch hier ist eine Private Cloud mit flexiblen, externen Infrastruktur-Erweiterungen die bessere Lösung, wenn ausreichend IT-Experten für Pflege und Maintenance zur Verfügung stehen.
Doch sowohl Kosten- als auch Sicherheitsaspekte sprechen für eine Entwicklung hin zu einer umfassenderen Auslagerung in die Public Cloud. Die angebotenen Technologien und Services sind technisch eine sichere Basis: Ganze Rechenzentrums-Umgebungen lassen sich so wie sie sind in die Cloud verlagern oder dort ganz neu aufbauen. Inzwischen beruht manches Geschäftsmodell darauf, dass für IT-Infrastruktur kaum Fixkosten anfallen.
Die Preisentwicklung im Cloud-Computing-Markt weist ebenfalls in diese Richtung. Selbst große Anbieter rücken immer mehr von ihren überteuerten Preismodellen mit festen Instanzen ab und kommen den Kunden in punkto Flexibilität und Kostentransparenz entgegen. So verwirklicht Cloud Computing die eigentliche Vision: flexible IT-Ressourcen genau dann, wenn man sie braucht.
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…
Huawei Connect Paris: Innovationen rund um Data Center, Storage und IT-Sicherheit.
Mit KI optimieren Hacker ihre Angriffsversuche. Ist CIAM eine Lösung, mit der sich Unternehmen vor…