Die Studie wurde unter dem werbewirksamen Namen ‘IBM System z TCO: Mann beißt Hund’ veröffentlicht und basiert auf Daten, die von IBM zur Verfügung gestellt wurden. Big Blue habe gezeigt, dass Mainframes in Bezug auf die gesamten Betriebskosten (Total Cost of Ownership – TCO) günstiger seien als entweder 30 Sun-Solaris- oder 300 Linux-Server.
“Der Mainframe hat in den vergangenen zehn Jahren zahlreiche Neuerungen durchlaufen, dadurch wurde er erschwinglicher sowie besser auf aktuelle Schnittstellen und Middleware abgestimmt”, schreibt der Autor der Studie Wayne Kernochan. Weitere Gründe für das verbesserte Kosten-Nutzen-Verhältnis seien, dass Mainframes heute weniger Strom und Kühlung benötigen als viele einzelne Server mit hoher Arbeitsbelastung.
Es mache deshalb “für große Unternehmen keinen Sinn den TCO nur auf der Basis ‘eine-Applikation-pro-Server’ zu messen”, so Kernochan weiter. Tatsächlich entspricht die Annahme, dass eine Applikation auf einem Server läuft nicht der heutigen Realität in Datenzentren – vielmehr ist es Dank Virtualisierung möglich, mehrere Applikationen auf einem physischen Server laufen zu lassen.
Mit genKI gerät die Ära von Software as a Service ins Wanken. Die Alternative sind…
Event: Anwendertagung und Fachausstellung "Quantum Photonics" am 13. und 14. Mai 2025 in Erfurt.
Mit dem Cyber Resilience Act, dem Data Act, der Produktsicherheitsverordnung und der neuen Produkthaftungsrichtlinie greift…
Fred, der KI-gesteuerte digitale Assistent, nutzt den Generative AI Service der OCI und die Oracle…
Cyberkriminelle verstärken Angriffe mit FakeUpdates und RansomHub als Schlüsselwerkzeuge.