Letzte Rettung: Die Absicherung virtueller Server

“Virtualisierte Server erhöhen die Flexibilität der IT, aber ein Ausfall der physikalischen Plattform kann gravierende Folgen haben. Mit fehlertoleranten Servern lässt sich die Hardware so absichern, dass auch virtuelle Server echte Hochverfügbarkeit erreichen”, urteilte Ulrich Lenz, Senior Consultant bei Stratus Technologies.

Bei allen Vorteilen, für die Virtualisierung mittlerweile auch beim Mittelstand bekannt ist, sei dies Risiko sehr hoch. Denn die Virtualisierung von Servern verschärft die Verfügbarkeitslage sogar, warnte er. “Wenn auf einem physischen Server mehrere virtuelle Server betrieben werden, so sind von einem Hardware-Ausfall immer gleich mehrere Server mitsamt ihren Anwendungen betroffen. Der defekte physische Server zieht also unter Umständen eine ganze virtuelle Server-Gruppe mit ins Verderben – und für jedes System müssen die angesprochenen Maßnahmen zu Wiederherstellung des Betriebs vorgenommen werden”, so Lenz. Auch wenn diese Maßnahmen mit entsprechender Software-Unterstützung automatisch ablaufen, so muss der Anwender dafür stets eine mehr oder weniger lange Zeitspanne einkalkulieren.

Da hilft, seiner Ansicht nach, nur eine Absicherung gegen Hardware-Ausfälle, die auch in der virtualisierten Umgebung nicht unter den Tisch fallen darf. Die Server-Virtualisierung bedarf also einer Ergänzung. Wichtige Anwendungen müssen gerade wenn sie auf virtuellen Servern laufen sollen, als sicheres Fundament eine wirklich hoch-verfügbare Hardware-Plattform erhalten.

Lenz warb in diesem Zusammenhang für Stratus-Server und sagte, dass sich fehlertolerante Server durch einen augenfälligen Aspekt von anderen Systemen unterscheiden würden: Für alle betriebswichtigen Teile sind durchgängig redundante Komponenten vorhanden, also Prozessoren, Speicher-Chips und I/O-Einheiten. “Erst auf dieser technischen Grundlage ist die Hardware soweit gegen Störungen abgesichert, dass der gleichzeitige Betrieb von mehreren Servern kein zusätzliches Risiko mehr darstellt”, meinte Lenz. “Natürlich wird man nicht jeden physischen Server einer großen Serverfarm auf diese Weise hoch-verfügbar machen, aber für diejenigen Server, auf denen unternehmenskritische Aufgaben laufen, ist dies doch unerlässlich.”

Silicon-Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

15 Stunden ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

16 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

2 Tagen ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

2 Tagen ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

2 Tagen ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

5 Tagen ago