Der HP-Mann geißelte im Gegensatz dazu die “reine Hardware-Virtualisierung” durch VMware-Umgebungen als “Verschwendung von Ressourcen”. Den grundlegenden Gedanken ließ es gelten, doch greift er seiner Meinung nach zu kurz. “Für die Kunden ist die Virtualisierung der schlankeren Applikationen keine große Frage, aber sie müssen etwa eine SAP-Funktion oder einen Datenbankauftrag auch in virtualisierten Umgebungen priorisieren und überwachen können – das geht mit VMware allein nicht. Ich vergleiche so etwas gern mit einer Autobahn, bei der pünktlich zum Feierabendverkehr zwei Spuren gesperrt werden”, sagte Christoph Balbach.
Die Frage, ob Datenbanken und Priorisierungen auch virtualisiert werden müssen, dürfe man bei solchen, rein auf eine Hardware orientierten Umgebungen gar nicht stellen. “Dazu kommt noch, dass eine klassische Windows-Umgebung nach wie vor regelmäßige Patches verlangt. Das ist in einer virtualisierten Umgebung ein echter Drahtseilakt, sofern die Ressourcen, etwa die CPU-Leistung, nicht ausgesprochen sauber alloziert sind”, sagte er.
“Zusätzlich hat der Kunde neben dem Betriebssystem und den Anwendungen einen Virtualisierungslayer, den er auch noch patchen muss. Hier entsteht oft ein weiterer Flaschenhals in Fragen der Prozesse und der Manpower”, gab er zu bedenken. “Das Problem des Managements dieser verschiedenen Dinge entsteht genau dann, wenn man nur die Hardware entkoppelt. Dabei handelt es sich um ein heute bestehendes Problem, dem wir bei einigen Kunden in der Region Nord-Ost begegnen: Sie haben heute schon mehr virtualisierte Einheiten als physische”, erklärte er. Dies gelte für Kunden mit Itanium- und Xeon-Servern gleichermaßen.
Zusätzlich sei es notwendig, die gewonnene Flexibilität und Agilität der neuen virtualisierten Systeme monetär darstellen zu können. “Der Kunde braucht den wirtschaftlichen Faktor als sichtbare Größe. Dieser Faktor ist unsichtbar, wenn reine Hardwarevirtualisierung eingesetzt wird, die viele Prozesse sehr intransparent macht.” VMware ist nur eine Software, urteilte er. Der Ansatz von HP hingegen beziehe die Hardware mit ein und soll eine höhere Auslastung der Systeme zusammen mit erhöhter Transparenz erreichen.
Allerdings ist die bereits seit mehreren Jahren angebotene Virtualisierung mit HP noch von einer Sache weit entfernt: Die Berechnung der Virtualisierung in einer Simulation, wobei der Kunde die eigenen Systeme in verschiedenen Virtualisierungslösungen darstellen und über mehrere Jahre hinweg beobachtet. So kann er den Einsatz und die Folgen der teilweise sehr teure Entscheidung noch vor dem Rollout sehen. Eine Lösung hierfür wird nach heutiger Planung erst im nächsten Jahr marktreif sein. “Die Simulation einer Virtualisierung wäre ein Dauerauftrag, der immer beim Kunden abläuftl und ihm einen Blick in die Zukunft seiner virtualisierten Lösung erlaubt”, sagte Balbach. Einstweilen müssen die Kunden dem HP-Vertrieb in Workshops glauben. Derzeit tourt HP zusammen mit Oracle mit diesem Thema durch Deutschland.
Deutscher Bio-Lebensmittel-Einzelhändler schließt die Migration von Blue Yonder Category Management-Lösungen in die Cloud ab.
Die meisten Markenbotschaften bleiben ungehört. Wie schaffen es Unternehmen wie Siemens, SAP oder Deutsche Telekom,…
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.