Fünf Sünden der Virtualisierung

“Bei Virtualisierungsprojekten sollte man mindestens genauso umfassend vorgehen, wie bei sonstigen Projekten, und zwar auf allen Ebenen”, so Christian Botta, Leiter Business Unit Virtualisierung bei Consol. “Interne Anforderungen und konkrete Ziele sollten geklärt werden, die beteiligten Personen involviert und ein Proof of Concept erarbeitet werden. Dabei kann man sich Virtualisierungslösungen und -konzepte von Lösungs-Partnern demonstrieren und erklären lassen. Das erspart Erfahrungen, die bereits andernorts gemacht wurden.” Laut Botta sollten diese fünf Sünden vermieden werden:

Unterschätzung der Storage Performance

Der Bereich Storage wird bei Virtualisierungsprojekten oft ausgeblendet, zumindest jedoch unterschätzt. Ein Storage-System an zentraler Stelle und unter falschen Gesichtspunkten konzipiert, wird schnell zum limitierenden Faktor einer gesamten virtuellen Umgebung, wenn zeitgleich viele virtuelle Maschinen um den Zugriff konkurrieren.

Gezielte Überlegungen und Investitionen in adäquate Hardware helfen, die erforderliche Performance zu garantieren. IT-Verantwortliche sollten sich insbesondere über die Zugriffsmuster ihrer virtuellen Umgebungen im Klaren sein. Bei den in aller Regel verteilten Zugriffsmustern (Random-I/O) sind weder die sequentielle Übertragungsleistung noch die Kapazität von Festplatten ausschlaggebend, sondern die Anzahl möglicher Input/Output Operations (IO) pro Sekunde.

Generell empfehlen sich umdrehungsstarke SAS/FC-Platten in Kombination mit RAID10. SATA-Platten in RAID5-Verbünden sind preislich günstig, erfüllen aber selten die Anforderungen, die an virtuelle Umgebungen gestellt werden. Ausnahmen sind Performance-unkritische Systeme oder Systeme mit stark sequentiellen Lesezugriffen.

Unklarheit über interne Verrechnung und Arbeitsabläufe

Ein weit verbreiteter Irrglaube bei der Einführung von Virtualisierung ist, dass die IT danach kaum Geld kostet. Gerade dieser Irrglaube kann zur Kostenfalle werden. Virtuelle Systeme kosten weiterhin Geld: Leistungsstarke physikalische Server müssen beschafft, Personal geschult und eventuell neu eingestellt werden. In der IT-Abteilung ist das nötige Bewusstsein meist vorhanden. Der vorauseilende Ruf der Virtualisierung macht es jedoch oft schwer, dieses Bewusstsein auch im Rest des Unternehmens zu verankern.

Page: 1 2 3

Silicon-Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

6 Stunden ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

7 Stunden ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

2 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

3 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

4 Tagen ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

4 Tagen ago