Fünf Sünden der Virtualisierung

“Bei Virtualisierungsprojekten sollte man mindestens genauso umfassend vorgehen, wie bei sonstigen Projekten, und zwar auf allen Ebenen”, so Christian Botta, Leiter Business Unit Virtualisierung bei Consol. “Interne Anforderungen und konkrete Ziele sollten geklärt werden, die beteiligten Personen involviert und ein Proof of Concept erarbeitet werden. Dabei kann man sich Virtualisierungslösungen und -konzepte von Lösungs-Partnern demonstrieren und erklären lassen. Das erspart Erfahrungen, die bereits andernorts gemacht wurden.” Laut Botta sollten diese fünf Sünden vermieden werden:

Unterschätzung der Storage Performance

Der Bereich Storage wird bei Virtualisierungsprojekten oft ausgeblendet, zumindest jedoch unterschätzt. Ein Storage-System an zentraler Stelle und unter falschen Gesichtspunkten konzipiert, wird schnell zum limitierenden Faktor einer gesamten virtuellen Umgebung, wenn zeitgleich viele virtuelle Maschinen um den Zugriff konkurrieren.

Gezielte Überlegungen und Investitionen in adäquate Hardware helfen, die erforderliche Performance zu garantieren. IT-Verantwortliche sollten sich insbesondere über die Zugriffsmuster ihrer virtuellen Umgebungen im Klaren sein. Bei den in aller Regel verteilten Zugriffsmustern (Random-I/O) sind weder die sequentielle Übertragungsleistung noch die Kapazität von Festplatten ausschlaggebend, sondern die Anzahl möglicher Input/Output Operations (IO) pro Sekunde.

Generell empfehlen sich umdrehungsstarke SAS/FC-Platten in Kombination mit RAID10. SATA-Platten in RAID5-Verbünden sind preislich günstig, erfüllen aber selten die Anforderungen, die an virtuelle Umgebungen gestellt werden. Ausnahmen sind Performance-unkritische Systeme oder Systeme mit stark sequentiellen Lesezugriffen.

Unklarheit über interne Verrechnung und Arbeitsabläufe

Ein weit verbreiteter Irrglaube bei der Einführung von Virtualisierung ist, dass die IT danach kaum Geld kostet. Gerade dieser Irrglaube kann zur Kostenfalle werden. Virtuelle Systeme kosten weiterhin Geld: Leistungsstarke physikalische Server müssen beschafft, Personal geschult und eventuell neu eingestellt werden. In der IT-Abteilung ist das nötige Bewusstsein meist vorhanden. Der vorauseilende Ruf der Virtualisierung macht es jedoch oft schwer, dieses Bewusstsein auch im Rest des Unternehmens zu verankern.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

SAP S/4 HANA wird digitaler Kern des Maschinenbauers Harro Höfliger

Spezialist für Produktions- und Verpackungsmaschinen setzt auf All for One

7 Stunden ago

Grenzüberschreitender Einsatz generativer KI verursacht Datenschutzverletzungen

Das Fehlen einheitlicher globaler KI-Standards zwingt Organisationen dazu, regionsspezifische Strategien zu entwickeln, was die Skalierbarkeit…

2 Tagen ago

Innovative Ansätze im Azubi-Recruiting: Warum Gamification der Schlüssel zur Nachwuchssicherung sein kann

Nachwuchs ist in vielen Betrieben Mangelware. Wie eine aktuelle Umfrage des Münchner Ifo-Instituts in Zusammenarbeit…

2 Tagen ago

Umfrage: Operatives Chaos lähmt Mehrheit der Unternehmen

Laut Software AG geben drei von vier Betrieben an, dass der weiter zunehmende Technologieeinsatz zu…

2 Tagen ago

Transformation der Rechenzentren: Frist des Energieeffizienzgesetzes endet im März

Zwischenbilanz nach 14 Monaten EnEfG: Die meisten Rechenzentren haben noch erheblichen Handlungsbedarf, sagt Gastautor Martin…

5 Tagen ago

Malware-Ranking Januar: Formbook und SnakeKeylogger an der Spitze

Zum Jahresbeginn gab es in Deutschland auf dem Podium der berüchtigtsten Malware-Typen viele Veränderungen. Altbekannte…

5 Tagen ago