Categories: NetzwerkeUnternehmen

Speicher per Utility-Abrechnung ist an der Zeit

Das Speichersoftwareunternehmen Veritas macht sich Gedanken um Abrechnungssysteme im Unternehmen und will den Utility-Gedanken, den die Firma jetzt in die eigenen Produkte eingebaut hat, weiter verbreiten. Dafür spricht nach Auskunft von Frank Bunn, Senior Product Marketing Manager EMEA bei Veritas, dass die meisten Firmen ihre IT-Services intern überhaupt nicht abrechnen geschweige denn Ausgaben rechtfertigen können. Das will sein Unternehmen nun ändern und hat dafür zunächst mit dem Marktforschungsunternehmen Dynamic Markets eine Bestandsaufnahme gemacht und erste Schlüsse daraus gezogen.
Ohne den Serverbereich, beginnt er, sei so eine neue Messkategorie aber selbstredend nicht umsetzbar. Bunn im Gespräch mit silicon.de: “Monitoring der eingesetzten Lösungen und Services ist nur ein Mittel zum Zweck – das eigentliche Ziel muss für die IT-Abteilung Kostentransparenz heißen.” Server-Management gehöre dazu ebenso wie die vernünftige Planung. Im Datenzentrum heiße dies, dass der Nutzer “von roher IT verschont” bleiben müsse. “Der Anwender muss nur drei Funktionen zwingend mit den Daten ausführen können: Er muss sie abrufen und auswählen können, den Aufwand dafür messen und den Messwert abrechnen, auch intern”, so Bunn.

Im Speicherbereich gehe daher die Entwicklung dahin, die Kosten pro TByte für diese drei Schritte zu veranschlagen. Beim Backup sei dies eher ein technischer Vorgang. “Interessant wird es beim Reporting in die Chefetage, hier müssen die hochkomplexen Zahlen greifbar und ihre Notwendigkeit sichtbar gemacht werden und dabei wollen wir helfen.” Speichermanagement könne durch den Utility-Gedanken genauso gut berechenbar werden wie jeder andere Bereich.

Das Argument, die Speicherwelt sei viel zu komplex für ein solches Vorgehen, lässt er nicht gelten: “Denken wir an Datenübertragung, so war es vor fünf Jahren noch ein technisches Wunder wenn ein paar Kbit sich pro Sekunde bewegt haben, heute sind 10GigE der Standard. Genauso wird die Speicherung eine Entwicklung durchmachen und weniger undurchschaubar werden. Messbar machen müssen wir sie aber schon heute, weil die Firmen heute schon den Kostendruck spüren.”

Lesen Sie auch : KI-Bluff bei AIOps erkennen
Silicon-Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

2 Stunden ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

5 Stunden ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

2 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

3 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

4 Tagen ago