Categories: CloudManagement

Virtualisierung darf nicht zu komplex werden

“Damit wird Virtualisierung jedoch wieder komplexer und droht ihren ursprünglichen Vorteil zu verlieren”, meint Joseph Reger, CTO des Elektronikherstellers Fujitsu Siemens Computers (FSC), anlässlich einer Analystenkonferenz in Wien.

Die Technologie ist mittlerweile zu einem Muss für Unternehmen geworden, was sich auch in Umfragen widerspiegelt. “Für zwei Drittel der Kunden hat Servervirtualisierung eine hohe Priorität und 90 Prozent sehen in der Technologie eine zukünftige IT-Plattform”, sagt Reger. Problematisch gestaltet sich jedoch mittlerweile die Tatsache, dass viele Softwarehersteller Virtualisierungstechnologien in ihr Portfolio aufgenommen haben. Damit ist der anfängliche Vorteil der Technologie, dass die Systeme einfacher sind, wieder verschwunden, dafür hält Komplexität Einzug.

“Virtualisierung ist vom Prinzip her eine Technologie, die eine Abstraktionsebene zwischen Software und Hardware einführt. Sie nimmt die Eigenarten der Hardware heraus und schaltet sie gleich. Die Hardware wird dadurch austauschbar und somit günstiger für den Kunden”, erläutert der CTO. Nun würden die verschiedenen Angebote zunehmen und damit erfordere Virtualisierung eine Verwaltung. FSC bietet hier mit seinen Blade-Frame-Systemen eine entsprechende Lösung, die dem Kunden eine einfache und vor allem beherrschbare IT-Infrastruktur verschafft. “Es ist ein System, das in die Breite geht und mit Virtualisierungslösungen von verschiedenen Anbieter umgehen kann. Es werden nicht einzelne Systeme virtualisiert, sondern ein solider Unterbau geschaffen”, meint Reger.

Die ursprünglich aus dem Speicherbereich kommende Virtualisierung strahle nun über den Serverbereich zunehmend auch auf die Clients aus, so Reger. Der Trend geht in eine Richtung, wo die Berechnung von Anwendungen von Computer auf Server verlagert wird. “Hintergrund ist die Tatsache, dass in vielen Büros Rechner stehen, die völlig unterfordert sind im Vergleich dazu, was sie leisten könnten. Die Überlegung ist nun, dass man hier die Hardware einspart und die kompletten Berechnungen von einer Server-CPU durchführen lässt”, führt der CTO aus.

Am Arbeitsplatz selbst bleiben lediglich die Ein- und Ausgabegeräte über. Da Serverprozessoren ebenfalls auf der x86-Architektur basieren, gibt es keine Kompatibilitätsprobleme mit den PC-Anwendungen und ein Server bringt die Leistung, um bis zu 50 PCs darauf zu betreiben.

Silicon-Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

15 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

15 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

2 Tagen ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

2 Tagen ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

2 Tagen ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

5 Tagen ago