Die Studie wurde unter dem werbewirksamen Namen ‘IBM System z TCO: Mann beißt Hund’ veröffentlicht und basiert auf Daten, die von IBM zur Verfügung gestellt wurden. Big Blue habe gezeigt, dass Mainframes in Bezug auf die gesamten Betriebskosten (Total Cost of Ownership – TCO) günstiger seien als entweder 30 Sun-Solaris- oder 300 Linux-Server.
“Der Mainframe hat in den vergangenen zehn Jahren zahlreiche Neuerungen durchlaufen, dadurch wurde er erschwinglicher sowie besser auf aktuelle Schnittstellen und Middleware abgestimmt”, schreibt der Autor der Studie Wayne Kernochan. Weitere Gründe für das verbesserte Kosten-Nutzen-Verhältnis seien, dass Mainframes heute weniger Strom und Kühlung benötigen als viele einzelne Server mit hoher Arbeitsbelastung.
Es mache deshalb “für große Unternehmen keinen Sinn den TCO nur auf der Basis ‘eine-Applikation-pro-Server’ zu messen”, so Kernochan weiter. Tatsächlich entspricht die Annahme, dass eine Applikation auf einem Server läuft nicht der heutigen Realität in Datenzentren – vielmehr ist es Dank Virtualisierung möglich, mehrere Applikationen auf einem physischen Server laufen zu lassen.
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…