Categories: Cloud

Mit virtuellen Rechenzentren die Flexibilität erhöhen

Laut Bitkom sehen neun von zehn deutschen CEOs in der Digitalisierung eher eine Chance für ihr Unternehmen denn ein Risiko. Doch wer diese Chance ergreifen möchte, braucht dafür eine kosteneffiziente und vor allem agile IT, die den schnell wechselnden Markt- und Kundenanforderungen gewachsen ist. Das Rückgrat einer solchen IT bilden moderne Rechenzentren. Diese müssen heutzutage nicht nur immer mehr Daten speichern und verarbeiten, sondern auch digitale Services immer schneller und flexibler bereitstellen. Das alles so sicher, zuverlässig, aber auch wirtschaftlich wie möglich. Gefragt sind somit Rechenzentren, die ihre Server-, Speicher- und Netzwerkkapazitäten kurzfristig an den tatsächlichen Bedarf anpassen können – am besten automatisiert.

Dr. Stefan Bucher, der Autor dieses Gastbeitrags für silicon.de, ist operativer Leiter der IT-Division von T-Systems (Bild: T-Systems)

Herkömmliche Rechenzentren können diese Anforderungen schwerlich erfüllen. Häufig laufen proprietäre Applikationen auf spezieller Hardware. Unflexible, reaktionsarme Silos sind die Folge. Die Lösung sind sogenannte Software-defined Data Center (SDDC).

Natürlich gibt es auch hier noch physische Komponenten. Doch bei softwarebasierten Rechenzentren wird die gesamte Infrastruktur in virtuellen Pools zusammengefasst und als Service aus der Cloud angeboten: die Server, der Speicher, das Netzwerk, die Prozesse und auch die Security. Die Anwender greifen auf die eigentlichen Ressourcen über eine Abstraktionsschicht zu. Bucher: Indem diese Services als Software bereitgestellt werden, gelingt es, die physischen Grenzen der Hardware zu überwinden.

Vorteile der Virtualisierung

Als zentrale Steuerungsinstanz senkt das SDDC so die Komplexität der IT-Infrastruktur und vereinfacht gleichzeitig deren Verwaltung. Zwar steigt die Komplexität zunächst an, da mit der Software eine weitere Ebene eingezogen wird. Dadurch, dass sich die komplette Infrastruktur anschließend zentral steuern lässt, werden jedoch Möglichkeiten für eine Effizienzsteigerung geschaffen, die es im hardwarebasierten Rechenzentrum so nicht gibt.

Konkret bedeutet das: Hardware-Komponenten wie CPU, Storage und Netzwerk wandern abstrahiert in die Cloud und können ohne manuellen Zugriff konfiguriert werden. Eine bessere Auslastung und bedarfsgerechte Zuordnung der vorhandenen Ressourcen sind das Ergebnis. Dank der dynamischen, frei skalierbaren Technologie sinkt das benötigte Volumen physischer IT-Ressourcen. Die vorhandenen physischen Komponenten werden besser genutzt. Das bringt deutliche Kosteneinsparungen mit sich.

Bei softwarebasierten Rechenzentren wird die gesamte Infrastruktur in virtuellen Pools zusammengefasst und als Service aus der Cloud angeboten. (Bild: DTAG)

Außerdem können neue Services schneller bereitgestellt werden. Während es in einem Hardware-basierten Rechenzentrum mitunter mehrere Wochen oder gar Monate dauert, diese einzurichten, braucht es in einer SDDC-Umgebung oft nur wenige Minuten.

Mit einem SDDC gehören starre Netzwerke der Vergangenheit hat. Es bündelt und verteilt die Ressourcen – automatisiert und angepasst an die individuellen Bedürfnisse des Kunden. Das konstant wachsende Datenvolumen und ständig neue Anforderungen wie etwa Echtzeitauswertungen von Informationen bewältigt die virtuelle Rechenzentrums-Infrastruktur problemlos.

Webinar

Digitalisierung fängt mit Software Defined Networking an

In diesem Webinar am 18. Oktober werden Ihnen die unterschiedlichen Wege, ein Software Defined Network aufzubauen, aus strategischer Sicht erklärt sowie die Vorteile der einzelnen Wege aufgezeigt. Außerdem erfahren Sie, welche Aspekte es bei der Auswahl von Technologien und Partnern zu beachten gilt und wie sich auf Grundlage eines SDN eine Vielzahl von Initiativen zur Digitalisierung schnell umsetzen lässt.

Ein weiterer Vorzug von Software-defined Data Centern: die erhöhte Ausfallsicherheit. Sollte irgendwo im Rechenzentrum Hardware ausfallen, verlagert die Software den Datenverkehr automatisiert auf andere Server. Die Gefahr, dass geschäftskritische Anwendungen längere Zeit nicht verfügbar sind, sinkt gegen null.

Weiterentwicklung bestehender Trends

Die Grundidee der virtuellen Rechenzentrumstechnologie ist nicht neu, sondern die konsequente Weiterentwicklung bestehender Virtualisierungstrends: Weniger Kosten, mehr Flexibilität und Verfügbarkeit sowie eine einfachere Administration – all diese Vorteile haben dazu geführt, dass sich virtuelle Server längst etabliert haben und mittlerweile in den meisten Data Centern anzutreffen sind. Analysten schätzen den Virtualisierungsgrad in traditionellen Rechenzentren auf gut 80 Prozent. Auch softwarebasierter Storage ist ein gängiges Konzept, bei dem Daten auf physischen Datenträgern gespeichert werden. Die übergeordnete, softwarebasierte Steuerebene (Control Plane) regelt, wo und wie die Daten gespeichert werden.

Die Grundidee der virtuellen Rechenzentrumstechnologie ist die konsequente Weiterentwicklung bestehender Virtualisierungstrends. (Bild: DTAG)

Bei Software-defined Networks, einer Technologie, die aufgrund ihrer Komplexität noch in einer Art Dornröschenschlaf steckt, ist die Steuerebene – sprich das System, das entscheidet, wohin die Daten geschickt werden – ebenfalls vom darunterliegenden System (Data Plane) entkoppelt. Dieses leitet die Daten zum Bestimmungsort weiter – wie bei einem Transportband am Flughafen, bei dem Strichcodes den richtigen Weg des Gepäcks vorgeben.

Public Cloud auf SDDC-Basis

SDDC-Technologien werden heute bereits in modernen Cloud-Infrastrukturen verwendet. Zum Beispiel in der Open Telekom Cloud (OTC), einer Public-Cloud-Lösung, die von T-Systems gemanagt wird. Per Software erhält jeder Kunde ein geschlossenes, virtuelles Rechenzentrum. Infrastrukturkomponenten, die per Software realisiert sind, können über ein Web-Interface oder automatisiert über APIs frei miteinander kombiniert und verbunden werden.

Mehr zum Thema

Microsoft, T-Systems und das Datentreuhändermodell

Deutsche Unternehmen standen Cloud-Angeboten von Microsoft bisher skeptisch gegenüber. Nun soll ein komplexes Vertragswerk Bedenken ausräumen. Dabei übernimmt T-Systems die Rolle als Datentreuhänder. Doch wie funktioniert dieses Konstrukt im Detail?

Dazu gehören Netzwerkkomponenten wie Router und Switches, Firewalls und Loadbalancer, aber auch Rechenressourcen wie Anzahl vCPUs, RAM und GPU sowie verschiedene Arten von Storage: Block Storage, Network Storage und Backup. Selbst die Anbindung an eigene Systeme kann sich der Kunde innerhalb seines virtuellen Rechenzentrums über verschiedene Wege und Sicherheitsstufen flexibel konfigurieren. Da ein Unternehmen mitunter mehrere dieser virtuellen Rechenzentren nutzt, kann es völlig frei festlegen, ob es seine Services und Anwendungen projektbezogen oder ganzheitlich in einer großen Umgebung gestalten und managen möchte.

Schneller, effizienter, flexibler

Ergänzt wird die flexible, virtuelle Rechenzentrumswelt durch Werkzeuge, die es dem Kunden ermöglichen, ungenutzte Ressourcen zu erkennen und zu optimieren, temporär Kapazitäten für seine Anwendungen und Dienste bereitzustellen oder seine Umgebung bezüglich Energieverbrauch und Kosten zu optimieren. Da alle diese Werkzeuge über APIs angesprochen werden, ist eine automatisierte Ressourcensteuerung aus der Applikation heraus möglich.

Das ermöglicht dem Unternehmenskunden eine bedarfsgerechte Bereitstellung von Ressourcen und dem Serviceprovider einen substantiell einfacheren Betrieb – denn viele bislang manuell zu leistende Aufgaben übernehmen nun Automaten. Die IT-Landschaft kann letztlich in allen Parametern für die individuellen Kundenbedürfnisse optimiert und mit minimalem Aufwand betrieben werden.

Skaliert eine derartig aufgebaute Cloud-Infrastruktur auf komplette Rechenzentren, ergeben sich für Betreiber und Kunden signifikante Geschwindigkeits-, Effizienz- und Flexibilisierungsvorteile. Das gesamte Data Center ist dann vollständig virtualisiert und kann über zentrale Konsolen bezüglich aller Parameter automatisiert gesteuert werden.

Loading ...
Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

4 Tagen ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

4 Tagen ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

5 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

6 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

1 Woche ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

1 Woche ago