Categories: CloudManagement

Unternehmen sichern sich kaum gegen Systemausfälle ab

In einer Untersuchung haben Stratus und das Marktforschungsunternehmen ITIC etwa 500 IT-Experten in Unternehmen verschiedener Branchen zum Thema Virtualisierung und Hochverfügbarkeit befragt. 79 Prozent der Befragten glauben, dass Virtualisierungssoftware die für kritische Anwendungen nötige Verfügbarkeit bereitstellen kann. Tatsächlich aber ist Virtualisierungssoftware nicht für die Herstellung von Hochverfügbarkeit konzipiert, die Gefahr von Hardware-Ausfällen kann sie nicht reduzieren.

Wie gering hier das Risikobewusstsein ist, zeigt auch, dass 17 Prozent der Befragten der Ansicht sind, dass ein Verfügbarkeitsniveau von 99 Prozent für unternehmenskritische Anwendungen ausreichend ist, obwohl das einer durchschnittlichen Ausfallzeit von fast 90 Stunden pro Jahr entspricht. Weitere 37 Prozent begnügen sich mit 99,9 Prozent, entsprechend einer jährlichen Downtime von 8,8 Stunden. Lediglich 9 Prozent erwarten für ihre kritischen Applikationen eine Verfügbarkeit von mehr als 99,999 Prozent und damit eine durchschnittliche Ausfallzeit von weniger als fünf Minuten.

Dieser Großzügigkeit hinsichtlich der Ausfallzeiten entspricht die Tatsache, dass nur wenige Unternehmen überhaupt angeben können, wie viel sie ein Serverausfall kosten würde: Nur 35 Prozent der Befragten haben diese Kosten ermittelt. Etwa ein Drittel geht davon aus, dass die Kosten bei einem Ausfall von einer Stunde über 50.000 Dollar liegen; 12 Prozent nannten sogar Kosten von über 250.000 Dollar.

“In dieser Studie zeigt sich auch, dass es vielen Unternehmen nicht klar ist, dass durch die Virtualisierung von Servern eine Verfügbarkeitslücke entsteht: In einer virtualisierten Server-Landschaft müssen höhere Anforderungen an die Ausfallsicherheit der physischen Server gestellt werden”, erklärt Timo Brüggemann, Director Business Development EMEA bei Stratus. “Zugleich zeigt die Untersuchung, dass viele Unternehmen beim Thema Verfügbarkeit ausgesprochen risikofreudig sind: Wenn mehr als die Hälfte meint, für unternehmenskritische Applikationen mit einer Verfügbarkeit von maximal 99,9 Prozent auskommen zu können, so ist das ein besorgniserregendes Zeichen”, führt Brüggemann weiter aus.

Lesen Sie auch : Kein Zugriff auf die Cloud
Silicon-Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

5 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

5 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

1 Tag ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

1 Tag ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago