Categories: Cloud

VMwares NSX: Netzwerke wie Server virtualisieren

Laut Gelsinger erlaubt NSX die Virtualisierung von Netzwerken ähnlich zu dem, was man von der Server-Virtualisierung her kennt. Das heißt, das gesamte Netzwerk lässt sich von einer einzigen Konsole aus komplett überwachen und managen.

Neue Komponenten oder Traffic-Regeln können nach vordefinierten Regel-Templates schnell und einfach eingerichtet oder abgeändert werden. Und laut VMware sei das Managen der Netzwerke das größte Problem bei den gegenwärtigen Netzen – und inzwischen auch das größte Problem in den Rechenzentren.

“Servervirtualisierung hat die Rechenprozesse effizienter und kostengünstiger gemacht. Storage lässt sich ebenfalls schon seit geraumer Zeit mit Hilfe von Virtualisierung günstiger und effizienter gestalten. Doch der zunehmende Flaschenhals im Rechenzentrum ist das Netzwerk, bei dem noch immer viel-zu-viel Zeit zum Einrichten von neuen Anwendungen und Services verloren geht“, erklärt Gelsinger in seiner Eröffnungskeynote.

Mit NSX soll dieses Problem jetzt auf breiter Front angegangen werden. Hierzu nutzt NSX eine eigene proprietäre SDN-Technologie (Software-defined Network), die der Hersteller um eine übergeordnete Kontroll-Ebene erweitert.

“SDN ist eine Technologie, NSX ist eine darauf aufbauende Lösung”, sagte VMwares Principal Engineer Bruce Davie in einem Gespräch mit silicon.de über die Unterschiede. Technisch gesehen bedeutet das, dass NSX nicht nur den Datenverkehr zwischen dem Controller und den physischen Netzwerk-Komponenten (Southboud-Traffic) steuert, sondern dass man neben einer Reihe an integrierten Steuerelementen vor allem auch eine umfangreiche API-basierte Anbindung von übergeordneten Cloud-Strukturen erlaubt. Dazu gehören neben VMwares eigener vCloud unter anderem auch OpenStack.

Struktur von VMwares NSX. Quelle: VMware

Beim Southbound-Traffic unterscheidet sich NSX von der vergleichbaren OpenFlow-Technologie vor allem dadurch, dass es kein eigenes Protokoll vorschreibt, sondern das jeweilige Protokoll des Switch- oder Router-Herstellers verwendet. Das aber hat verschiedene Vor- und Nachteile. Der größte Vorteil ist, dass die Einführung von NSX keine neuen Hardware-Komponenten verlangt, so wie es bei OpenFlow der Fall ist.

Die Nachteile bestehen zum einen darin, dass sich die Steuerung der Netz-Komponenten auf die vom Hersteller bereitgestellten APIs beschränkt, die meistens weniger Flexibilität bieten, als es die Kontroll-Funktionen bei OpenFlow erlauben. Zum anderen gibt es ein bedeutendes strukturelles Problem: Der Hardwarehersteller muss mehr als die üblichen APIs zur Verfügung stellen, damit deren proprietäre Betriebs-Systeme übers IP-Netz gemanagt werden können – wozu bislang nicht alle bereit sind.

Zwar unterstützen HP, Dell, Juniper, Arista und Brocade bereits NSX, doch der Netzwerk-Platzhirsch Cisco ist nicht dabei. Dabei gibt es eine formale Partnerschaft von VMware mit Cisco, die eigentlich für derartige Kooperationen geschaffen wurde. Doch es scheint, dass VMware jetzt mehr auf Konkurrenz, als auf Partnerschaft setzt. Während Cisco der führende Promoter von OpenDaylight ist, geht man bei VMware mit NSX völlig eigene Wege.

Schließlich gibt es noch einen sehr großen Unterschied zwischen Netzwerk- und Servervirtualisierung. So schaffen virtualisierte Netzwerke im Gegensatz zur Server-Virtualisierung keine Hardwareeinsparungen.

Es lassen sich durch NSX keine Switches und Router abschalten; NSX generiert auch keine zusätzliche Bandbreite. Laut Gelsinger sind die Vorteile der NSX-Virtualisierung in der Netzwerk-Konfiguration bei der Implementation von neuen Anwendungs-Programmen. “Bei eBay dauerte die Netzwerk-Konfiguration für neue Apps typischerweise eine Woche, das dauert jetzt nur noch 30 Sekunden”, sagt Davie über die Vorteile, die der Pilotkunde eBay bereits mit NSX realisieren konnte.

Für Gelsinger ist NSX keine isolierte Lösung, sondern Teil der übergeordneten Architektur eines “Software-definierten Rechenzentrums”, SDDC. “Erst wenn alles virtualisiert ist und alles komplett Software-gesteuert abläuft, werden wir die Automatisierungs-Vorteile von Software-gesteuerten Hardware-Komponenten voll ausschöpfen können”, lautet seine Vorgabe an die CIOs.

Mit einer Art “IT-as-a-Service” soll es dann möglich sein die Hälfte der IT-Budgets auf Innovation zu verwenden – das wäre dann fast doppelt so viel wie der gegenwärtige Durchschnittswert, der zwischen 25 und 30 Prozent pendelt.

Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

2 Tagen ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

2 Tagen ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

4 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

5 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

5 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

6 Tagen ago