Stratus: Cloud Computing für Unternehmen ungeeignet

Fotogalerie: Blick in ein hochverfügbares Rechenzentrum

Klicken Sie auf eines der Bilder, um die Fotogalerie zu starten

Für kritische Systeme müsste den Anwendern eine Verfügbarkeit von 99,9999 Prozent – also echte Hochverfügbarkeit – angeboten werden. Bei 99,95 Prozent würden die Systeme im Dauerbetrieb durchschnittlich für mehrere Stunden pro Jahr nicht zur Verfügung stehen. Je mehr die Geschäftsprozesse von der IT abhängig sind, desto gravierender seien die Folgen von Serverausfällen: So können beispielsweise Buchungen nicht vorgenommen, Aufträge nicht ausgeführt oder Verkäufe nicht abgeschlossen werden. Je nach Branche können sich daraus Verluste in fünf- und sechsstelliger Höhe ergeben – pro Stunde!

Laut dem Serveranbieter Stratus könnten die großen Anbieter von Cloud Computing durchweg nur eine Verfügbarkeit von 99,9 bis maximal 99,95 Prozent garantieren. Auch wenn die Provider ihre eigenen Systeme in der Regel heute hochverfügbar machten, so könne der Anwender immer nur die Verfügbarkeit nutzen, die auch wirklich bei ihm ankommt – dieser müsse dabei auch Netz- und Leistungsausfälle einkalkulieren.

Für unternehmenskritische Anwendungen eigne sich Cloud Computing daher grundsätzlich nicht. Hier sollten Unternehmen weiterhin auf – wen wundert’s? – Server-Lösungen in stationären Architekturen zurückgreifen. Dabei kommen fehlertolerante Server heute auf eine Verfügbarkeit von über 99,9999 Prozent (“Six Nine”), was einer durchschnittlichen Ausfallzeit von etwa einer halben Minute pro Jahr entspreche.

“Cloud Computing ist ein interessanter Ansatz, der derzeit zu Recht viel Aufmerksamkeit findet”, so Brüggemann. “Er eignet sich allerdings nur für Anwendungen, die nicht unternehmenskritisch sind, also zum Beispiel für On-Demand-CRM, für Business Intelligence oder für Web-Konferenzen. Die Kern-Anwendungen, von denen der Betrieb eines Unternehmens abhängt, benötigen dagegen durchweg Hochverfügbarkeit, die Cloud Computing nicht bieten kann.”

Silicon-Redaktion

Recent Posts

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

1 Tag ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

2 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

3 Tagen ago

KI-Bluff bei AIOps erkennen

Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…

4 Tagen ago

Klinikum Frankfurt an der Oder treibt Digitalisierung voran

Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…

5 Tagen ago