“Bei Virtualisierungsprojekten sollte man mindestens genauso umfassend vorgehen, wie bei sonstigen Projekten, und zwar auf allen Ebenen”, so Christian Botta, Leiter Business Unit Virtualisierung bei Consol. “Interne Anforderungen und konkrete Ziele sollten geklärt werden, die beteiligten Personen involviert und ein Proof of Concept erarbeitet werden. Dabei kann man sich Virtualisierungslösungen und -konzepte von Lösungs-Partnern demonstrieren und erklären lassen. Das erspart Erfahrungen, die bereits andernorts gemacht wurden.” Laut Botta sollten diese fünf Sünden vermieden werden:
Unterschätzung der Storage Performance
Der Bereich Storage wird bei Virtualisierungsprojekten oft ausgeblendet, zumindest jedoch unterschätzt. Ein Storage-System an zentraler Stelle und unter falschen Gesichtspunkten konzipiert, wird schnell zum limitierenden Faktor einer gesamten virtuellen Umgebung, wenn zeitgleich viele virtuelle Maschinen um den Zugriff konkurrieren.
Gezielte Überlegungen und Investitionen in adäquate Hardware helfen, die erforderliche Performance zu garantieren. IT-Verantwortliche sollten sich insbesondere über die Zugriffsmuster ihrer virtuellen Umgebungen im Klaren sein. Bei den in aller Regel verteilten Zugriffsmustern (Random-I/O) sind weder die sequentielle Übertragungsleistung noch die Kapazität von Festplatten ausschlaggebend, sondern die Anzahl möglicher Input/Output Operations (IO) pro Sekunde.
Generell empfehlen sich umdrehungsstarke SAS/FC-Platten in Kombination mit RAID10. SATA-Platten in RAID5-Verbünden sind preislich günstig, erfüllen aber selten die Anforderungen, die an virtuelle Umgebungen gestellt werden. Ausnahmen sind Performance-unkritische Systeme oder Systeme mit stark sequentiellen Lesezugriffen.
Unklarheit über interne Verrechnung und Arbeitsabläufe
Ein weit verbreiteter Irrglaube bei der Einführung von Virtualisierung ist, dass die IT danach kaum Geld kostet. Gerade dieser Irrglaube kann zur Kostenfalle werden. Virtuelle Systeme kosten weiterhin Geld: Leistungsstarke physikalische Server müssen beschafft, Personal geschult und eventuell neu eingestellt werden. In der IT-Abteilung ist das nötige Bewusstsein meist vorhanden. Der vorauseilende Ruf der Virtualisierung macht es jedoch oft schwer, dieses Bewusstsein auch im Rest des Unternehmens zu verankern.
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…