Mehr Offenheit im Netzwerk

Der Nutzen von offenen Standards ist leicht erklärt: Organisationen haben erheblich mehr Freiheiten bei der Gestaltung der Netzwerkarchitektur. Bislang ist es oft so: Egal wie sich der Markt entwickelt und welche technologischen Neuerungen dazu kommen, man ist auf “Gedeih und Verderb” auf einen Anbieter festgelegt.

Man kann also nicht die beste Lösung integrieren, sondern wählt lediglich unter den Komponenten, die kompatibel sind zu der bestehenden Architektur. Vom reinen Investitionsvolumen bringt dies zwar Kostenvorteile mit sich, aber man erweitert lediglich das Bestehende und erhält kein modernes, agiles sowie hochverfügbares und effizientes IP-Netzwerk. Was genau verstehe ich also unter “Offenheit” im Netzwerk? Was versprechen die neuen Ansätze?

Zunächst sollte ich voranstellen, dass die Offenheit von Netzwerken sich auf zwei Bereiche bezieht. Zum einen geht es um offene IT-Systeme, also ein Multi-Vendor Netzwerk, in dem gemäß der Best-of-Breed-Strategie immer diejenigen Komponenten eingesetzt werden, die jeweils neue und verbesserte Funktionalitäten bieten. Der zweite Bereich, für den die neue Offenheit gilt, ist die IT-Architektur selber.

Das Spannende ist hierbei, dass diese Entwicklungen oft durch Community Groups vorangetrieben werden. So wurden sowohl beim OpenDaylight-Projekt als auch der OpenStack-Initiative neue Layer der IT-Architektur entwickelt. Einige meiner Kollegen sind sehr aktiv bei OpenDaylight, beispielsweise leitet einer meiner US-Kollegen das Technical Steering Committee (TSC), das die generelle Entwicklung des Projektes steuert und damit auch die Standards der Releases kontrolliert. Das zweite Release “Helium” ist ein wichtiger Schritt in Richtung einer gemeinsamen Plattform und gemeinsamer Standards für die Branche.

Einige Entwicklungen stecken zugegebenermaßen noch in den Kinderschuhen. Nicht alles, was entsteht ist sofort flächendeckend einsetzbar. Aber das grundlegende Prinzip dahinter wird sich durchsetzen, nämlich dass die Innovationskraft nicht nur bei einem einzelnen Hersteller liegen wird. Vielmehr werden mehrere Experten gemeinsam Lösungen für ganz spezielle und konkrete Probleme im Netzwerk entwickeln. Und gerade weil sich in diesem Markt so viel verändert und entwickelt, ist diese “Schwarmintelligenz” den Einfällen von Einzelherstellern überlegen. Für den Nutzer birgt dies zudem den Vorteil, dass auch die Risiken bei offenen Spezifikationen transparenter oder leichter zu managen sein werden.

Was für Server und Software von Desktop-PCs bereits seit Jahren etabliert ist, kommt nun also auch im Netzwerk an. Mit ähnlichen Vorteilen: Mehr Transparenz, mehr Vergleichbarkeit, bessere Lösungen und schlussendlich leistungsfähigere sowie flexiblere Netzwerke – die eben genau das sind, was ich eingangs beschrieben habe: “Offen für alles”.

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

4 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

4 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

4 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

4 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

4 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

4 Jahre ago