Obwohl die Unternehmen bei IT-Outsourcing auf die Leistungsfähigkeit ihrer Provider angewiesen sind, messen sie deren technische Leistung nur selten. Laut der Erhebung von Servicetrace verzichten die meisten Firmen darauf, die Verfügbarkeit und Geschwindigkeit der Anwendungen aus dem Rechenzentrum des Dienstleisters am Punkt des Benutzers zu messen. Das müssen sie aber tun, um eine realistische Einschätzung zu erhalten.
Stattdessen geben sie sich mit den Angaben zur Performance der zentralen Systeme zufrieden. Dabei gäbe es gute Gründe für ein genaues Hinschauen, da zwei von fünf Firmen die technischen Leistungen ihres Servicepartners bemängeln. So urteilen nur 16 Prozent der fast 200 befragten Outsourcing-Anwender, dass sie mit der Geschwindigkeit und Verfügbarkeit der Applikationen vollständig zufrieden sind. Für weitere 42 Prozent sind die Leistungen zwar nicht optimal, bewegen sich aber noch im grünen Bereich. Anders sieht es bei dem umfangreichen Rest der Unternehmen aus. Sie beklagen entweder deutliche Defizite in der Performance, das gilt für 31 Prozent der befragten Kunden. Ein Prozent sind sogar restlos unzufrieden.
Doch trotzdem beschränken sich die meisten Anwender auf gefühlte Defizite und verzichten auf konkrete Analysen der Leistungsqualität ihres Providers. Denn lediglich jedes zehnte Unternehmen misst die Client-seitige Performance. 43 Prozent nehmen keinerlei Messungen vor. Stattdessen beschränken sich drei von fünf Anwendern darauf, welche Informationen ihnen der Provider liefert. Weitere 14 Prozent stützen sich in ihren Bewertungen sowohl auf zentrale wie dezentrale Analysen, aber 17 Prozent sind völlig ohne regelmäßige Leistungsmessungen.
“Es ist erstaunlich, dass IT-Leistungen eingekauft werden, aber nur in Ausnahmefällen genau ermittelt wird, welche Leistungen auch tatsächlich bezogen werden”, sagte Servicetrace-Geschäftsführer Markus Duus. Er kritisiert, dass sich viele Unternehmen damit begnügen, zentrale Performance-Daten berichtet zu bekommen, aber den teilweise großen Leistungsverlust zwischen Provider und eigenen Standorten unberücksichtigt lassen. “Letztlich wissen die Unternehmen dadurch gar nicht, welche Leistungen sie für Ihr Geld bekommen.”
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…
Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…