Geschäftsanwendungen sind von wesentlicher Bedeutung für erfolgreiche IT-Virtualisierung

Auch müssen sie Prozeduren einführen, mit denen sie die Vorteile der Konsolidierung auf eine virtuelle Plattform maximieren und mögliche Risiken in einer abstrakt gewordenen Landschaft reduzieren können. Wenn dies unterbleibt, wirkt sich das auf den Erfolg von Projekten aus und mindert den Nutzen einer Virtualisierungsstrategie.

Steigende Energiekosten, die Notwendigkeit, auf einer vorgegebenen Grundfläche immer mehr Rechenleistung zu generieren, aber auch ein verstärktes Umweltbewusstsein haben die Bedeutung der Virtualisierung verändert: Sie ist nicht länger ein Werkzeug, das je nach Bedarf eingesetzt wird, sondern spielt in der IT-Strategie vieler Unternehmen eine zentrale Rolle.

Die Geschichte der Virtualisierung kann bis in die siebziger Jahre zurückverfolgt werden, als Mainframes virtuell partitioniert werden konnten, um zahlreiche Gast-Maschinen zu hosten. Dies erwies sich als ideale Umgebung, um neue Plattformen zu installieren und zu konfigurieren, existierende Systeme aufzurüsten und Entwicklern einen “Sandkasten” für isolierte Tests zur Verfügung zu stellen. In der Ausprägung des einundzwanzigsten Jahrhunderts wiederholt sich die Geschichte mit der Virtualisierung, die in den meisten Unternehmen mitten im Rechenzentrum zu neuem Leben erwacht. IT-Betreuer und Applikationsentwickler erkannten schnell, welche zusätzliche Flexibilität es mit sich bringt, wenn sie für Softwaretests keine neue Hardware anschaffen müssen oder zusätzliche Anforderungen an die Rechenleistung sofort erfüllen können.

Durch den Rollenwechsel der Virtualisierung vom gelegentlichen genutzten Werkzeug zu einer zentralen Technologie gibt es eine korrespondierende Veränderung in der Planung: Es muß gewährleistet sein, dass alle IT-Ebenen innerhalb eines Unternehmens so aufeinander abgestimmt sind, dass sie in der neuen virtualisierten Landschaft optimale Leistung bringen. Damit die zugrundeliegenden IT-Infrastrukturkomponenten auch verfügbar sind, wenn eine neue virtuelle Maschine eingerichtet wird, ist es zwingend notwendig, dass die Geschäftsanwendungen wie auch die operativen Prozesse und Prozeduren vollständig in der Lage sind, die umfassenden Dienste zur Verfügung zu stellen, die die Endanwender benötigen, um ihre Aufgaben zu erfüllen.

Page: 1 2 3 4 5

Silicon-Redaktion

Recent Posts

Deutsches KI-Startup Brain4Data statt digitalen Assistenten für KMU mit genKI-Funktionen ausDeutsches KI-Startup Brain4Data statt digitalen Assistenten für KMU mit genKI-Funktionen aus

Deutsches KI-Startup Brain4Data statt digitalen Assistenten für KMU mit genKI-Funktionen aus

Fred, der KI-gesteuerte digitale Assistent, nutzt den Generative AI Service der OCI und die Oracle…

2 Tagen ago
Malware-Ranking März: FakeUpdates dominiert in DeutschlandMalware-Ranking März: FakeUpdates dominiert in Deutschland

Malware-Ranking März: FakeUpdates dominiert in Deutschland

Cyberkriminelle verstärken Angriffe mit FakeUpdates und RansomHub als Schlüsselwerkzeuge.

2 Tagen ago
Künstliche Intelligenz als GamechangerKünstliche Intelligenz als Gamechanger

Künstliche Intelligenz als Gamechanger

"Der wahre Mehrwert von KI entsteht durch die Integration unternehmenseigener Daten", sagt Mike Sicilia von…

5 Tagen ago

Verbrechensabwehr mit KI

Autonom agierende Agenten werden Sicherheitsteams bei der Angriffsabwehr unterstützen, sagt Zac Warren von Tanium.

6 Tagen ago

Schwedens Bargeld-Comeback: Ein unerwarteter Kurswechsel

Schweden hat in seiner Entwicklung hin zu einer bargeldlosen Gesellschaft einen überraschenden Rückzieher gemacht. Diese…

6 Tagen ago

Open Source und KI: Passt das zusammen?

"Uns geht es vielmehr darum aufzuzeigen, wie Open-Source-KI realisierbar ist", sagt Jan Wildeboer von Red…

7 Tagen ago