Categories: Cloud

Menschliche Fehler verursachen die meisten Server-Ausfälle

Die Unternehmensberatung ITIC hat die aktuelle Nutzerbefragung ITIC 2017 Global Server Hardware and Server OS Reliability Survey veröffentlicht. Dafür wurden mehr als 750 Organisationen zur Zuverlässigkeit ihrer Systeme befragt. Auch die Zufriedenheit mit den Services der Hersteller wurde abgefragt.

Ein wenig überraschendes Ergebnis der Studie ist, dass die IBM Mainframes die Liste in Sache Ausfallsicherheit anführen. Laut der ITIC-Untersuchung sollen Mainframes lediglich 0,96 Minuten ungeplante Server-Downtime im vergangenen Jahr erfahren haben. Das entspricht 2 Sekunden in der Woche oder 8 Sekunden pro Monat. In der Vorjahresstudie erreichte die Downtime bei Mainframes noch 1,12 Minuten pro Server und Jahr.

IBMs Mainframes führen in einer Nutzerbefragung durch die Marktforscher von ITIC mit weniger als einer Minute ungeplanten Ausfällen an. Die besten Standardsysteme sollen demnach knapp drei Minuten im Jahr ungeplant ausfallen. (Bild: IBM)

Darin sehen die Autoren der Studie ein Zeichen, dass sich die Zuverlässigkeit der Serverhardware stetig steigert. Denn auch die Werte anderer Hersteller wie HPE, Fujitsu, Dell EMC und Cisco verbessern sich im Schnitt.

Interessant aber ist der Vergleich zwischen Mainframes und x86-Standard-Systemen. Hier führe laut ITIC die Server von Lenovo die Liste an. 2,8 Minuten ungeplante Auszeiten registrierten Anwender in den zurückliegenden 12 Monaten pro Server. Damit liegen die Ausfallzeiten um den Faktor 2,91 über denen des Mainframes.

87 Prozent der Anwender von Lenovo-Servern mit Red Hat Enterprise Linux, SUSE oder Ubuntu geben an, dass sie weniger als eine ungeplante Auszeit pro Server pro Jahr erleben. Zwei Prozent der Lenovo-Anwender erklärten, dass sie einen Ausfall von länger als vier Stunden pro Server und Jahr haben. 6 Prozent sind es bei HPE, 8 bei Dell und 10 Prozent der Anwender von Oracle Anwender sehen langwierige Ausfälle.

Ältere Hardware als Ausfallursache

Für 66 Prozent der Anwender ist vor allem ältere Hardware der wichtigste Grund für Server-Ausfälle. In der Befragung aus dem Jahr 2014 gaben noch 44 Prozent der Anwender an, dass ältere Hardware sich negativ auf die Verfügbarkeit auswirke. 21 Prozent sehen darin sehen im Alter ihrer Systeme dagegen keine negativen Auswirkungen auf die Zuverlässigkeit.

In aller Regel sind die Anwender wohl recht zufrieden. So geben lediglich 1 Prozent der Kunden von Cisco, Dell und IBM/Lenovo an, schlechten oder unzufriedenstellenden Support zu bekommen. 3 Prozent der Nutzer von HPE und Fujitsu sowie 4 Prozent der Toshiba-Anwender vertreten diese Einschätzung.

Ausgewähltes Whitepaper

Studie zu Filesharing im Unternehmen: Kollaboration im sicheren und skalierbaren Umfeld

Im Rahmen der von techconsult im Auftrag von ownCloud und IBM durchgeführten Studie wurde das Filesharing in deutschen Unternehmen ab 500 Mitarbeitern im Kontext organisatorischer, technischer und sicherheitsrelevanter Aspekte untersucht, um gegenwärtige Zustände, Bedürfnisse und Optimierungspotentiale aufzuzeigen. Jetzt herunterladen!

Herausstechend dabei aber sei laut den Studienautoren der hohe Wert unter Anwendern von Oracle-Hardware. 16 Prozent der Nutzer sind hier der Ansicht, “schlechten” oder “unzufriedenstellenden” Support von dem Anbieter zu bekommen. Dafür sorge unter anderem auch die undurchsichtige Lizenz und Preis-Politik von Oracle. Die Studien-Autoren mutmaßen, dass zahlreiche Oracle-Anwender Upgrade-Zyklen überspringen, was dazu führt, dass die Verlässlichkeit der Systeme mit dem zunehmenden Alter der Hardware leicht abnimmt.

Menschliche Fehler als Ausfallursache

Ein weiterer Trend sei, dass immer häufiger menschliche Fehler und Angriffe auf die Systeme, die Zuverlässigkeit der Systeme beeinträchtigen. Menschliche Fehler, wie falsche Konfigurationen sind inzwischen bei 80 Prozent der Anwender die wichtigste Ursache für Ausfälle. Damit sind Fehler noch vor Sicherheitsproblemen mit 59 Prozent offenbar inzwischen die häufigste Ursache für Ausfälle.

Dafür sehen die Autoren zwei Gründe. Zum einen werden die IT-Teams immer kleiner zum anderen müssen diese mehr und komplexere Aufgaben erledigen. So müssten schnell und mit hohem Druck neue komplexe Technologien wie IoT, Cloud-Computing oder Big Data Analytics im Unternehmen realisiert werden.

Webinar

Digitalisierung fängt mit Software Defined Networking an

In diesem Webinar am 18. Oktober werden Ihnen die unterschiedlichen Wege, ein Software Defined Network aufzubauen, aus strategischer Sicht erklärt sowie die Vorteile der einzelnen Wege aufgezeigt. Außerdem erfahren Sie, welche Aspekte es bei der Auswahl von Technologien und Partnern zu beachten gilt und wie sich auf Grundlage eines SDN eine Vielzahl von Initiativen zur Digitalisierung schnell umsetzen lässt.

Mit der Digitalisierung steige auch das Bedürfnis der Anwender nach verlässlichen Systemen, denn die digitalen Services rücken immer mehr in den Fokus und sind zunehmend auch eine Grundlage für die Geschäftsmodelle der Anwender.

So steige im Vergleich mit der Befragung aus dem Jahr 2014 der Anteil derjenigen Unternehmen, die wenigstens “Four Ninnes” Uptime brauchen. Inzwischen ist eine Uptime von 99,99 Prozen für 79 Prozent der Anwender eine wichtige Voraussetzung. Noch vor drei Jahren gaben nur 49 Prozent der Unternehmen an, solche Anforderungen an die eigene IT zu haben.

Gleichzeitig steigen auch die Kosten einer Downtime, wie ITIC in einer Studie im Mai mitteilte. 98 Prozent der Unternehmen mit mehr als 1000 Mitarbeitern geben an, dass die Kosten für einen einstündigen Ausfall die Grenze von 150.000 Dollar überschreiten. 31 Prozent und damit 7 Prozent mehr als noch vor 3 Jahren erklärten, dass ein Ausfall von einer Stunde bis zu 400.000 Dollar kostet. Ein Drittel der Unternehmen beziffern die Kosten für einen einstündigen Ausfall zwischen 1 und 5 Millionen Dollar.

Loading ...
Redaktion

Recent Posts

Managed Service Provider sollten Compliance-Checkbox-Falle vermeiden

Ausmaß der Gefahren ist umfassender als bisher wahrgenommen und ein handeln dringend erforderlich, warnt Andy…

4 Stunden ago

Cyber-physische Qualitätskontrolle

Merck bringt eine Digital-Trust-Plattform an den Markt. Deren Ziel: höhere Produktsicherheit und Schutz vor Produktfälschung.

4 Stunden ago

SAP IDM vor dem Aus

Mit dem bevorstehenden Support-Ende für SAP IDM müssen viele Unternehmen ihre IAM-Strategie überdenken, erklärt Moritz…

4 Stunden ago

Knime: KI wird praxisnäher, präziser und vertrauenswürdiger

KI-Trends 2025: Prädiktive KI rückt in den Fokus, autonome KI-Agenten noch nicht realisierbar.

5 Stunden ago

Digitaler Zwilling für klimafreundliches Fernwärme-Management

Fraunhofer-Forschende simulieren die Wärmeströme des gesamten Netzes, prognostizieren Lastspitzen und helfen bei der Planung neuer…

5 Stunden ago

Oracle: Cloud-Landschaft wird diverser und komplexer

Cloud-Trends 2025: Diversifizierung des Cloud-Marktes, Edge Cloud Transformation und Plattform-Compliance.

1 Tag ago