Fünf Sünden der Virtualisierung

“Bei Virtualisierungsprojekten sollte man mindestens genauso umfassend vorgehen, wie bei sonstigen Projekten, und zwar auf allen Ebenen”, so Christian Botta, Leiter Business Unit Virtualisierung bei Consol. “Interne Anforderungen und konkrete Ziele sollten geklärt werden, die beteiligten Personen involviert und ein Proof of Concept erarbeitet werden. Dabei kann man sich Virtualisierungslösungen und -konzepte von Lösungs-Partnern demonstrieren und erklären lassen. Das erspart Erfahrungen, die bereits andernorts gemacht wurden.” Laut Botta sollten diese fünf Sünden vermieden werden:

Unterschätzung der Storage Performance

Der Bereich Storage wird bei Virtualisierungsprojekten oft ausgeblendet, zumindest jedoch unterschätzt. Ein Storage-System an zentraler Stelle und unter falschen Gesichtspunkten konzipiert, wird schnell zum limitierenden Faktor einer gesamten virtuellen Umgebung, wenn zeitgleich viele virtuelle Maschinen um den Zugriff konkurrieren.

Gezielte Überlegungen und Investitionen in adäquate Hardware helfen, die erforderliche Performance zu garantieren. IT-Verantwortliche sollten sich insbesondere über die Zugriffsmuster ihrer virtuellen Umgebungen im Klaren sein. Bei den in aller Regel verteilten Zugriffsmustern (Random-I/O) sind weder die sequentielle Übertragungsleistung noch die Kapazität von Festplatten ausschlaggebend, sondern die Anzahl möglicher Input/Output Operations (IO) pro Sekunde.

Generell empfehlen sich umdrehungsstarke SAS/FC-Platten in Kombination mit RAID10. SATA-Platten in RAID5-Verbünden sind preislich günstig, erfüllen aber selten die Anforderungen, die an virtuelle Umgebungen gestellt werden. Ausnahmen sind Performance-unkritische Systeme oder Systeme mit stark sequentiellen Lesezugriffen.

Unklarheit über interne Verrechnung und Arbeitsabläufe

Ein weit verbreiteter Irrglaube bei der Einführung von Virtualisierung ist, dass die IT danach kaum Geld kostet. Gerade dieser Irrglaube kann zur Kostenfalle werden. Virtuelle Systeme kosten weiterhin Geld: Leistungsstarke physikalische Server müssen beschafft, Personal geschult und eventuell neu eingestellt werden. In der IT-Abteilung ist das nötige Bewusstsein meist vorhanden. Der vorauseilende Ruf der Virtualisierung macht es jedoch oft schwer, dieses Bewusstsein auch im Rest des Unternehmens zu verankern.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

14 Stunden ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

18 Stunden ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

3 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

3 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

4 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

4 Tagen ago