Auch müssen sie Prozeduren einführen, mit denen sie die Vorteile der Konsolidierung auf eine virtuelle Plattform maximieren und mögliche Risiken in einer abstrakt gewordenen Landschaft reduzieren können. Wenn dies unterbleibt, wirkt sich das auf den Erfolg von Projekten aus und mindert den Nutzen einer Virtualisierungsstrategie.
Steigende Energiekosten, die Notwendigkeit, auf einer vorgegebenen Grundfläche immer mehr Rechenleistung zu generieren, aber auch ein verstärktes Umweltbewusstsein haben die Bedeutung der Virtualisierung verändert: Sie ist nicht länger ein Werkzeug, das je nach Bedarf eingesetzt wird, sondern spielt in der IT-Strategie vieler Unternehmen eine zentrale Rolle.
Die Geschichte der Virtualisierung kann bis in die siebziger Jahre zurückverfolgt werden, als Mainframes virtuell partitioniert werden konnten, um zahlreiche Gast-Maschinen zu hosten. Dies erwies sich als ideale Umgebung, um neue Plattformen zu installieren und zu konfigurieren, existierende Systeme aufzurüsten und Entwicklern einen “Sandkasten” für isolierte Tests zur Verfügung zu stellen. In der Ausprägung des einundzwanzigsten Jahrhunderts wiederholt sich die Geschichte mit der Virtualisierung, die in den meisten Unternehmen mitten im Rechenzentrum zu neuem Leben erwacht. IT-Betreuer und Applikationsentwickler erkannten schnell, welche zusätzliche Flexibilität es mit sich bringt, wenn sie für Softwaretests keine neue Hardware anschaffen müssen oder zusätzliche Anforderungen an die Rechenleistung sofort erfüllen können.
Durch den Rollenwechsel der Virtualisierung vom gelegentlichen genutzten Werkzeug zu einer zentralen Technologie gibt es eine korrespondierende Veränderung in der Planung: Es muß gewährleistet sein, dass alle IT-Ebenen innerhalb eines Unternehmens so aufeinander abgestimmt sind, dass sie in der neuen virtualisierten Landschaft optimale Leistung bringen. Damit die zugrundeliegenden IT-Infrastrukturkomponenten auch verfügbar sind, wenn eine neue virtuelle Maschine eingerichtet wird, ist es zwingend notwendig, dass die Geschäftsanwendungen wie auch die operativen Prozesse und Prozeduren vollständig in der Lage sind, die umfassenden Dienste zur Verfügung zu stellen, die die Endanwender benötigen, um ihre Aufgaben zu erfüllen.
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.