IT-Abteilungen sind dabei, Wege zu finden, traditionelle IT-Metriken zu vereinfachen und somit leichter verständliche und umsetzbare Formate zu schaffen. Es bietet auch Vorteile, eine Metrik in ihre Bestandteile zu zerlegen, um ihre Grundstruktur zu erkennen. Auch wenn dies anfangs der Intuition widerspricht, so kann das Ergebnis doch ein umfassenderes Verständnis dafür liefern, was eine spezifische Metrik bewegt.

Systemverfügbarkeit oder “Uptime” ist eine der anerkanntesten Metriken der IT-Abteilungen. Systemverfügbarkeit ist eine Effizienzmetrik, die erzeugt wird, indem “Downtime” von “gesamt möglicher Verfügbarkeit” abgezogen wird, was heißt: je mehr “Downtime” desto geringere Systemverfügbarkeit. Wenn man Downtime in ihre Bestandteil zerlegt, erhält man drei Grundkomponenten:

Benachrichtigung Die verstrichene Zeit bevor die IT über einen spezifischen Ausfall informiert wird.
Eskalation Die verstrichene Zeit bevor die richtige Person gefunden ist, welche die Problemstellung lösen kann
Erledigung Die Zeit, die erforderlich ist, um das Problem zu lösen

Ein Verständnis der Komponenten von Downtime versetzt IT-Abteilungen besser in die Lage, die Downtime zu reduzieren und die Systemverfügbarkeit zu erhöhen. Für IT-Abteilungen ist es üblich, sich vorwiegend mit den Lösungsmöglichkeiten zu befassen, während es tatsächlich erforderlich wäre, für eine schnellere Benachrichtigung und einen verbesserten Eskalationsprozess zu sorgen.

Page: 1 2 3 4

Silicon-Redaktion

View Comments

  • Metrik ersetzt nicht das Denken ...
    Metriken sind besonders dann sehr nützlich, wenn sie objektiv gehandhabt werden. Häufig machen aber gängige Vorurteile einen dicken Strich durch die Rechnung, weil sie die objektive Untersuchung der Gesamtsituation verhindern.

    Der vorliegende Artikel propagiert unter anderem das gängige Vorurteil, dass hohe Verfügbarkeit zwangsweise mit sehr hohen Kosten verbunden und daher unwirtschaftlich sei. Dieses Syndrom gilt aber nicht uneingeschränkt, es findet sich hauptsächlich dort wo man dem süßen Gift der billigen Hardware und Software verfallen ist. Die Folgekosten (hoher Personalaufwand, durch hohe Komplexität bedingte längere Ausfallzeiten und die daraus resultierenden Kosten) sieht man im Einkauf nicht - sie spielen erst wieder in jenen Leitungsgremien eine Rolle, in denen über die mangelnde Effizienz der IT beratschlagt wird. Allerdings treten diese Kosten dort nicht klar zutage, weil man normalerweise über keine vernünftige Root Cause Analysis verfügt.

    Metriken gepaart mit Hirnschmalz könnten zuweilen zu überrraschenden Erkenntnissen führen - zum Beispiel, dass in manchen Fällen der Einsatz fehlertoleranter Systeme nicht nur bessere Service Level sondern gleichzeitig auch geringere Gesamtkosten zur Folge haben kann.

Recent Posts

Klinikum Frankfurt an der Oder treibt Digitalisierung voran

Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…

2 Wochen ago

Pentesting: Vom Luxus zum Standard

Automatisierung macht Pentesting auch für kleinere Unternehmen erschwinglich, sagt Mareen Dose von indevis.

2 Wochen ago

Must-haves einer Sicherheitsstrategie: Deep Observability und Zero Trust

Die Sicherheitslandschaft ist alles andere als robust. Unter anderem weil die Sichtbarkeit noch immer kritische…

2 Wochen ago

Open Source: Der gläserne Code als Schutzschild?

Auch der Einsatz von Open Source Software bringt Herausforderungen mit sich, insbesondere in der IT-Sicherheit,…

2 Wochen ago

Zukunftssichere Datensicherung als Treiber der intelligenten Wirtschaft

Studie von Huawei und Roland Berger beleuchtet Schlüsseltrends und neue Anforderungen an Datenspeicherlösungen im KI-Zeitalter.

2 Wochen ago

Den Milliarden-Dollar-Bug vermeiden

Der Ausfall bei CrowdStrike ist nur ein Symptom eines größeren Problems, wenn Unternehmen es versäumen,…

2 Wochen ago