Das Rechenzentrum der nächsten Generation

In einem sich schnell verändernden Geschäftsumfeld, in dem die Sicherung von Wettbewerbsvorteilen zunehmend davon abhängig ist, welche Anwendungen und Technologien eingesetzt werden und Geschäftsbereiche flexiblen und schnellen Zugriff auf IT-Ressourcen benötigen, um ihre Projekte schneller am Markt einführen zu können, ist die IT mehr gefordert, denn je. Sie muss sicherstellen, dass Rechenzentren nicht nur hochdynamisch und automatisiert laufen, sondern auch strengen Sicherheits- und Compliance-Standards entsprechen sowie IT-Prozesse und -Daten vor Angriffen oder (versehentlichen) Verlusten geschützt werden.

Virtualisierung war ein erster, wichtiger Schritt, um die Grundlagen für die benötigte Flexibilität von IT-Services zu erreichen. Für das in Zukunft benötigte Höchstmaß an Automatisierung, Flexibilität und Effizienz, reicht Virtualisierung alleine aber nicht mehr aus.

Um alle Rechenzentrumsservices – nicht mehr nur die Server- oder Desktop-Bereitstellung – unabhängig von der jeweiligen Hardware zu machen, müssen Computing-, Storage- und Netzwerk-, Sicherheits- und Verfügbarkeitsservices in Pools zusammengefasst, aggregiert und als Software bereitgestellt werden. Ja, Sie haben richtig gelesen: als Software!

Das erfordert sicherlich ein Umdenken in den über Jahre gewachsenen Rechenzentrumsbetrieben. Im Laufe der Jahre haben sich Rechenzentren zu weitgehend fragmentierten Umgebungen entwickelt, in denen verschiedenste proprietäre Softwareanwendungen isoliert auf speziellen Hardwarekomponenten ausgeführt wurden.
Aber der Schritt ist nicht so groß wie es zunächst scheinen mag!
Immerhin haben fast alle Unternehmen in den vergangenen Jahren schon ihre physikalischen Server, Desktops und Datenbanken konsolidiert und in virtuelle Pools allokiert. Gleiches lässt sich nun auf alle weiteren IT-Ressourcen anwenden.

Wenn diese dann von einer intelligenten und richtliniengesteuerten Software verwaltet werden, erhalten Rechenzentren ein Höchstmaß an Automatisierung, Flexibilität und Effizienz.

Das, was wir bei VMware das Software-Defined Datacenter (SDDC) nennen. Darunter verstehe ich ein für das Cloud-Zeitalter optimiertes Rechenzentrum, das geschäftliche Flexibilität, höchste SLAs für alle Anwendungen, einen einfachen Betrieb zu langfristig niedrigen Kosten realisiert.

Das Konzept des Software Defined Datacenters liegt nicht darin, die Inflexibilität spezieller Hardware durch verschiedenste überarbeitete Skripts zu kaschieren. Ziel dieser Umgebungen ist vielmehr, die Einschränkungen herkömmlicher Infrastrukturen zu überwinden, um neue Möglichkeiten für die Bereitstellung sämtlicher Rechenzentrumsservices zu bieten.

Die Virtualisierungsprinzipien Pooling, Abstrahierung und Automatisierung werden auf die Bereiche Storage, Netzwerk, Sicherheit und Verfügbarkeit übertragen. Die zusammengefassten Services werden mit intelligenten, richtlinienbasierten Bereitstellungs-, Automatisierungs- und Überwachungsfunktionen kombiniert. Durch APIs und weitere Konnektoren ist eine nahtlose Erweiterung zu Drittanbieterplattformen und Public Cloud Services möglich.

Ein anschauliches Einsatzszenario des Software Defined Datacenter ist etwa die flexible Bereitstellung neuer Echtzeitanwendungen aus dem Bereich soziale Medien, die große Datenmengen mit jährlichen Wachstumsraten von 50 bis 60 Prozent verarbeiten. Oder die Nutzung einer Hybrid Cloud, die durch Software Defined Security- und Compliance-Funktionen, die sowohl das interne Rechenzentrum als auch die Public Cloud-Services umfassen. Wenn sich die Infrastruktur über eine einzige Schnittstelle verwalten lassen, können Ressourcen und Workloads dynamisch nach Bedarf in der gesamten Hybrid-Umgebung verschoben werden.

Das Software Defined Datacenter ist der nächste Schritt in der Evolution der IT, und meiner Meinung nach der bei weitem effektivste, stabilste und kosteneffizienteste Ansatz für eine Cloud-Infrastruktur.

Wie sehen Sie das?

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

4 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

4 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

4 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

4 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

4 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

4 Jahre ago