Geschäftsanwendungen sind von wesentlicher Bedeutung für erfolgreiche IT-Virtualisierung

Auch müssen sie Prozeduren einführen, mit denen sie die Vorteile der Konsolidierung auf eine virtuelle Plattform maximieren und mögliche Risiken in einer abstrakt gewordenen Landschaft reduzieren können. Wenn dies unterbleibt, wirkt sich das auf den Erfolg von Projekten aus und mindert den Nutzen einer Virtualisierungsstrategie.

Steigende Energiekosten, die Notwendigkeit, auf einer vorgegebenen Grundfläche immer mehr Rechenleistung zu generieren, aber auch ein verstärktes Umweltbewusstsein haben die Bedeutung der Virtualisierung verändert: Sie ist nicht länger ein Werkzeug, das je nach Bedarf eingesetzt wird, sondern spielt in der IT-Strategie vieler Unternehmen eine zentrale Rolle.

Die Geschichte der Virtualisierung kann bis in die siebziger Jahre zurückverfolgt werden, als Mainframes virtuell partitioniert werden konnten, um zahlreiche Gast-Maschinen zu hosten. Dies erwies sich als ideale Umgebung, um neue Plattformen zu installieren und zu konfigurieren, existierende Systeme aufzurüsten und Entwicklern einen “Sandkasten” für isolierte Tests zur Verfügung zu stellen. In der Ausprägung des einundzwanzigsten Jahrhunderts wiederholt sich die Geschichte mit der Virtualisierung, die in den meisten Unternehmen mitten im Rechenzentrum zu neuem Leben erwacht. IT-Betreuer und Applikationsentwickler erkannten schnell, welche zusätzliche Flexibilität es mit sich bringt, wenn sie für Softwaretests keine neue Hardware anschaffen müssen oder zusätzliche Anforderungen an die Rechenleistung sofort erfüllen können.

Durch den Rollenwechsel der Virtualisierung vom gelegentlichen genutzten Werkzeug zu einer zentralen Technologie gibt es eine korrespondierende Veränderung in der Planung: Es muß gewährleistet sein, dass alle IT-Ebenen innerhalb eines Unternehmens so aufeinander abgestimmt sind, dass sie in der neuen virtualisierten Landschaft optimale Leistung bringen. Damit die zugrundeliegenden IT-Infrastrukturkomponenten auch verfügbar sind, wenn eine neue virtuelle Maschine eingerichtet wird, ist es zwingend notwendig, dass die Geschäftsanwendungen wie auch die operativen Prozesse und Prozeduren vollständig in der Lage sind, die umfassenden Dienste zur Verfügung zu stellen, die die Endanwender benötigen, um ihre Aufgaben zu erfüllen.

Page: 1 2 3 4 5

Silicon-Redaktion

Recent Posts

Pentesting: Vom Luxus zum Standard

Automatisierung macht Pentesting auch für kleinere Unternehmen erschwinglich, sagt Mareen Dose von indevis.

13 Stunden ago

Must-haves einer Sicherheitsstrategie: Deep Observability und Zero Trust

Die Sicherheitslandschaft ist alles andere als robust. Unter anderem weil die Sichtbarkeit noch immer kritische…

1 Tag ago

Open Source: Der gläserne Code als Schutzschild?

Auch der Einsatz von Open Source Software bringt Herausforderungen mit sich, insbesondere in der IT-Sicherheit,…

2 Tagen ago

Zukunftssichere Datensicherung als Treiber der intelligenten Wirtschaft

Studie von Huawei und Roland Berger beleuchtet Schlüsseltrends und neue Anforderungen an Datenspeicherlösungen im KI-Zeitalter.

3 Tagen ago

Den Milliarden-Dollar-Bug vermeiden

Der Ausfall bei CrowdStrike ist nur ein Symptom eines größeren Problems, wenn Unternehmen es versäumen,…

3 Tagen ago

Nachhaltigeres Wirtschaftswachstum durch Daten und KI?

PwC-Studie zeigt: KI hilft vielen Unternehmen dabei, die Effizienz zu steigern, Kosten zu senken und…

3 Tagen ago