Categories: CloudManagement

Virtualisierung darf nicht zu komplex werden

“Damit wird Virtualisierung jedoch wieder komplexer und droht ihren ursprünglichen Vorteil zu verlieren”, meint Joseph Reger, CTO des Elektronikherstellers Fujitsu Siemens Computers (FSC), anlässlich einer Analystenkonferenz in Wien.

Die Technologie ist mittlerweile zu einem Muss für Unternehmen geworden, was sich auch in Umfragen widerspiegelt. “Für zwei Drittel der Kunden hat Servervirtualisierung eine hohe Priorität und 90 Prozent sehen in der Technologie eine zukünftige IT-Plattform”, sagt Reger. Problematisch gestaltet sich jedoch mittlerweile die Tatsache, dass viele Softwarehersteller Virtualisierungstechnologien in ihr Portfolio aufgenommen haben. Damit ist der anfängliche Vorteil der Technologie, dass die Systeme einfacher sind, wieder verschwunden, dafür hält Komplexität Einzug.

“Virtualisierung ist vom Prinzip her eine Technologie, die eine Abstraktionsebene zwischen Software und Hardware einführt. Sie nimmt die Eigenarten der Hardware heraus und schaltet sie gleich. Die Hardware wird dadurch austauschbar und somit günstiger für den Kunden”, erläutert der CTO. Nun würden die verschiedenen Angebote zunehmen und damit erfordere Virtualisierung eine Verwaltung. FSC bietet hier mit seinen Blade-Frame-Systemen eine entsprechende Lösung, die dem Kunden eine einfache und vor allem beherrschbare IT-Infrastruktur verschafft. “Es ist ein System, das in die Breite geht und mit Virtualisierungslösungen von verschiedenen Anbieter umgehen kann. Es werden nicht einzelne Systeme virtualisiert, sondern ein solider Unterbau geschaffen”, meint Reger.

Die ursprünglich aus dem Speicherbereich kommende Virtualisierung strahle nun über den Serverbereich zunehmend auch auf die Clients aus, so Reger. Der Trend geht in eine Richtung, wo die Berechnung von Anwendungen von Computer auf Server verlagert wird. “Hintergrund ist die Tatsache, dass in vielen Büros Rechner stehen, die völlig unterfordert sind im Vergleich dazu, was sie leisten könnten. Die Überlegung ist nun, dass man hier die Hardware einspart und die kompletten Berechnungen von einer Server-CPU durchführen lässt”, führt der CTO aus.

Am Arbeitsplatz selbst bleiben lediglich die Ein- und Ausgabegeräte über. Da Serverprozessoren ebenfalls auf der x86-Architektur basieren, gibt es keine Kompatibilitätsprobleme mit den PC-Anwendungen und ein Server bringt die Leistung, um bis zu 50 PCs darauf zu betreiben.

Silicon-Redaktion

Recent Posts

Zwischen Safety und Security: Balanceakt der Industriesicherheit

Die Vernetzung in der Industrie optimiert mit KI Prozesse und reduziert mit Predictive Maintenance ungeplante…

23 Stunden ago

KI-Reifegrad-Studie: Viele Unternehmen stehen noch am Anfang

Enterprise AI Maturity Index von ServiceNow: Im Durchschnitt erreichen Unternehmen nur einen KI-Reifegrad von 44…

24 Stunden ago

Das Wiederaufleben USB-basierter Angriffe

Wer auf Wechselmedien – wie USB-Laufwerke – angewiesen ist, muss wachsam bleiben, da diese Geräte…

1 Tag ago

KI in Unternehmen – Die Zukunft der Digitalisierung

Das Thema künstliche Intelligenz wird immer relevanter. Diese Technologie hat Einfluss auf Arbeitsweisen, Politik und…

1 Tag ago

S/4HANA-Migration: Verzögerung vorprogrammiert?

SAP S/4HANA-Transformationen sind äußerst komplex und verlaufen oft nicht wie geplant – oder scheitern sogar…

2 Tagen ago

Black Friday: Ein Blick auf den Schnäppchen-Hype

Der Black Friday, der in den USA traditionell am Freitag nach Thanksgiving gefeiert wird, hat…

2 Tagen ago