Netzwerke bilden die Basis für KI, aber auch für Collaboration, Hybrid Work und Security. Die Nachfrage nach höherer Übertragungsgeschwindigkeit und Bandbreite zur Unterstützung der Anwendungen steigt derzeit exponentiell. Dies führt zu fundamentalen Änderungen in der Gestaltung und dem Betrieb von Netzwerken und Rechenzentren.
Insbesondere durch den Anstieg von KI-Workloads müssen deutsche Unternehmen in den kommenden Monaten ihre Architekturmodelle und Investitionsstrategien im Netzwerkbereich einem Realitätscheck unterziehen. Denn eine aktuelle Cisco-Studie zeigt: Weltweit sind 14 Prozent der Unternehmen vollständig darauf vorbereitet, KI einzusetzen – in Deutschland lediglich 7 Prozent. Zwei Drittel der deutschen Unternehmen sagen, dass ihre Infrastruktur nur begrenzt skalierbar ist. Auch auf den deutlich steigenden Stromverbrauch durch KI und zunehmende Gefahren der Cybersecurity sind sie nicht vollständig vorbereitet.
Heute ist die 100G-Technologie in Netzwerken weit verbreitet. Doch diese benötigen höhere Leistungskapazitäten, um neue Anwendungen, Daten und Workflows einschließlich KI/ML zu unterstützen. So steigt die Nachfrage nach höheren Netzwerkgeschwindigkeiten und Bandbreiten, die mit neuen GPUs und NICs bis zu 400G und 800G erreichen.
Damit werden sich auch Bau und Betrieb von Rechenzentren grundlegend ändern. Die Entwicklung von 400G/800G-Leaf-Spine-Architekturen mit 100G-SerDes erfüllt die wachsende Nachfrage nach höherer Bandbreite auf Server- und Client-Seite. Darüber hinaus wird der Schwerpunkt zunehmend auf Sicherheit und Multi-Mandantenfähigkeit liegen, um Daten für KI-Workloads zu trennen.
Höhere Leistung darf aber nicht auf Kosten der Ziele für Umwelt, Soziales und Unternehmensführung (ESG) gehen. IT-Organisationen müssen auch angesichts des KI-Booms für nachhaltige Netzwerke und Rechenzentren sorgen. Die Modernisierung der Infrastrukturen kann hier ein wichtiger Schritt sein, da viele neue Produkte effizienter sind. Zudem wird Flüssigkühlung den Energieverbrauch der KI-Infrastruktur optimieren.
Der künftige Energiebedarf von KI trifft jedoch auf eine Welt, in der Rechenzentren noch nicht für diesen Bedarf ausgelegt sind. Selten sind Unternehmen in der Lage, neue Rechenzentren zu errichten, die direkt auch die umweltfreundlichsten Lösungen beinhalten. Es ist daher davon auszugehen, dass Unternehmen einen schrittweisen und nuancierten Ansatz mit verteilten Architekturen verfolgen werden. Bei diesem werden Faktoren wie die Verfügbarkeit von Platz und Strom ebenso Berücksichtigung finden, wie der Einsatz von hochentwickelten optischen Netzwerken und nachhaltigen Technologien.
Zur Skalierung der Netzwerke benötigen Unternehmen eine einheitliche Architektur, um die betriebliche Komplexität und Kosten zu reduzieren. Ethernet hat sich auch bei KI als bevorzugte Technologie herauskristallisiert, da sie eine standardisierte, flexible und kostengünstige Alternative zu proprietären Technologien wie InfiniBand bietet.
Bereits in der Vergangenheit haben die Anforderungen von Sprache, Video, Speicherung und High-Performance-Computing (HPC) zu einem „verlustfreien“ Ethernet geführt. Dies hat die Zuverlässigkeit erheblich verbessert, die Latenzzeit gesenkt und die Leistung erhöht. Ethernet bietet außerdem eine wirtschaftliche Skalierung auf große Core-Cluster und kleinere Edge-Cluster.
Weitere Innovationen werden die Ethernet-Technologie neu erfinden, damit sie eine noch höhere Leistung und Ausfallsicherheit bietet, insbesondere für KI/ML-Arbeitslasten. Die schnellere und effizientere Übertragung von Daten zwischen Modellen und Datenspeichern wird beispielsweise GPUs näher an den Primärspeicher heranführen und die Grenzen zwischen internen und externen Fabrics im Serverdesign verwischen.
Letztlich wird es eine Vielzahl von Anwendungsfällen und Kundenbedürfnissen geben. So arbeitet Cisco an Lösungen, um KI-Netzwerke unter Verwendung verschiedener Architekturen zu konfigurieren und zu betreiben. Dazu gehören telemetriebasierte, vollständig geplante Fabrics und Ethernet-Lösungen.
Auch das Ultra Ethernet Consortium (UEC), dessen Gründungsmitglied Cisco ist, gewinnt immer mehr an Bedeutung. Sein rasches Mitgliederwachstum belegt das starke Interesse an Ethernet als Basis für Netzwerklösungen, die KI/ML-Workloads ermöglichen. Cisco geht davon aus, dass das UEC im Jahr 2024 erste Spezifikationen erstellen und veröffentlichen wird, um Ethernet-basierte Lösungen für den KI/ML-Bereich zu unterstützen. Die Aktivitäten des UEC werden zu einer größeren Auswahl führen, so dass Kunden die optimale Technologie für ihre Anforderungen einsetzen können.
Im Jahr 2024 wird die Bedeutung der Netzwerktransparenz und -sicherheit weiter steigen. Die sich ständig verändernde Internetleistung erfordert eine permanente End-to-End-Observability, um Störungen zu erkennen und abzumildern. Dies gilt auch für genutzte externe Netzwerke, die sich bislang der Kontrolle entziehen. Unternehmen müssen mit Hilfe aktueller Lösungen digitale Erlebnisse unabhängig von der zugrundeliegenden Infrastruktur gewährleisten, um Unterbrechungen der Geschäftsabläufe zu vermeiden.
ist Enterprise Networking Lead für Cisco Deutschland.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…
KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.
Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.
Neue Kunden sind unter anderem SAP, Conforama Schweiz, 11teamsports, Phillip Morris International, Baywa und Thalia.
Oracle schafft einheitliche Plattform für vier Ministerien und über 250.000 Beamte mit der Oracle Applications…
Der Grund: Geräte, die mit veralteter Software arbeiten, sind anfällig für Cyberangriffe und Datenlecks.