Jedes moderne Smartphone hat heute mehr Rechen- und Grafikleistung, Speicherkapzität und auch größeren Nutzen als ein PC in den frühen 90er Jahren. Die fortschreitende Miniaturisierung der IT hat für Konsumenten wahrlich Erstaunliches gebracht. Analog ist es nur eine Frage der Zeit, dass auch die Unternehmens-IT geschrumpft und damit einhergehend vereinfacht wird. In nicht mehr allzu ferner Zukunft könnten dank intelligenter Software und hyperkonvergierten Ansätzen ganze Rechenzentren auf die Größe einer Bierkiste verkleinert werden.
In der IT sind Simplizität und Komplexität so etwas wie das Ying und Yang – ständig ringend um Balance. Neue Technologien versprechen den IT-Profis oft, ihre Arbeit zu vereinfachen. Doch Komplexität folgt dann meistens auf dem Fuß. Virtualisierung ist das beste Beispiel: Die Technologie hat die IT fraglos revolutioniert und eine komplette Ebene an Komplexität und Ineffizienz beseitigt. Leider, nicht ohne neue Probleme in anderen Teilen der Infrastruktur zu schaffen.
Virtualisierung und die Cloud verändern die IT-Landschaft zunehmend und verdeutlich immer mehr, daß der traditionelle Ansatz von Storage und Servern seinem Ende entgegentaumelt. SAN, NAS und Server separat anzuschaffen und zu integrieren ist tatsächlich sehr komplex und obendrein teuer. Abhilfe sollen konvergente Systeme schaffen, die damit werben, SAN- oder NAS-Speicher sowie Server in einem einzelnen Rack integrieren zu können.
Bei genauem Hinsehen bieten sie jedoch nur einen geringen Mehrwert im Vergleich zu traditionellen Systemen, weil sie im Prinzip doch nur zusammengepackte Storage-, Networking- und Serverkomponenten sind. Sie beseitigen eben nicht Komplexität, bieten oft keine Wahl des Hypervisors und sind obendrein noch nicht einmal billiger als einzelne Appliances. IT-Manager, die damit zu kämpfen haben, auf Dauer mehr aus ihren bestehenden Investitionen herauszuholen, verschwenden mit diesen zu kurz gedachten Ansätzen wichtige Ressourcen.
Die Idee, die Komplexität komplett beseitigen würde, wäre das Software Defined Datacenter (software-definiertes Rechenzentrum, SDDC). Dass das Rechenzentrum der Zukunft software-definiert sein muss, ist mittlerweile kein Geheimnis mehr. Um ein software-definiertes Rechenzentrum aber auf eine handliche Größe zu schrumpfen, ist Hyperkonvergenz nötig. Müssen doch die Bestandteile Storage, Netzwerk und Server zu einzelnen Blöcken zusammengefasst werden. Diese lassen sich dann erweitern, indem einfach weitere Blöcke hinzugefügt werden. Zusätzlich wäre das Rechenzentrum in der Kiste mit der Cloud für Backup und andere Dienste verbunden, die sich ökonomischer außerhalb des eigenen Unternehmens betreiben ließen.
Konvergente Systeme sind kaum mehr als zusammengewürfelte Soft- und Hardwarekomponenten. Im Gegensatz dazu sind hyperkonvergente Systeme software-definiert, vollkommen integriert und damit die logische Fortsetzung der Evolution des Rechenzentrums.
Hyperkonvergenz ist ein ziemlich logischer und einfach zu verstehender Ansatz. SDS hingegen ist ein äußerst amorpher Begriff und jeder Hersteller definiert ihn ein wenig anders. Software-Hersteller, die selbst keine Hardware verkaufen, behaupten, SDS sei ausschließlich die Bereitstellung und die Verwaltung von Speicher, unabhängig von der darunter liegenden Hardware. Im Gegensatz dazu sagen die Hardwarehersteller, dass ihre Produkte auch software-definiert seien, weil ihre Software auch auf anderen Systemen laufen könnte.
Die Diskussion, was SDS im Detail bedeutet, ist bei solch gegensätzlichen Ansichten zu einem hohen Grad akademisch. Worüber jedoch Einigkeit besteht ist, dass die Herausforderungen von heute nicht mit alten, hardware-definierten Konzepten gelöst werden können und, dass intelligente Software Probleme auf Hardware-Ebene beseitigt. Beispiele für erfolgreiche SDS-Ansätze in der Praxis gibt es einige.
1. Speicher-Virtualisierung verlängert Nutzung von Arrays
Ein Beispiel für intelligente Nutzung von Software wäre Speicher-Virtualisierung. In der Regel sind IT-Manager nicht in der glücklichen Lage, ihr Rechenzentrum komplett mit neuer Hardware zu bestücken. Man nutzt bestehende Infrastruktur so lange wie möglich und fügt eben neue Bestandteile hinzu, wenn es nötig wird. Bei Storage wären dies beispielsweise über Jahre hinweg angeschaffte Speicherinseln von unterschiedlichen Herstellern, Technologien und Kapazitäten. Speicher-Virtualisierung kann diese Inseln in einen Pool bündeln und sie gemeinsam für Applikationen nutzbar machen. Genauso wie VMware damit erfolgreich war, die Serverebenen zu virtualisieren, sind Hersteller von SDS daran, die Speicherebene zu virtualisieren.
2. Nutzung von Standard-Hardware spart Kosten
SDS bietet signifikante Vorteile, weil Organisationen Standardhardware nutzen und damit proprietäre Upgrade-Prozesse verhindern können. Intelligente SDS-Lösungen bieten die Möglichkeit, günstigeren Speicher auf ihrer bevorzugten Hardware von einem vertrauenswürdigen und auch großem Hersteller zu nutzen.
3. Doppelte Performance zum halben Preis – Software macht es möglich
SAN- oder NAS-Hardware ist aufgrund alter Technologie ineffizient, selbst wenn sie mit schnellem Flash-Speicher teuer aufgehübscht wird. Mehr Performance bieten All-Flash-Systeme, allerdings oft zu einem ebenfalls hohen Preis. Intelligente Software kann aus All-Flash deutlich mehr Performance herausholen als normale Flash-Systeme, indem ein noch schnellerer RAM-Tier genutzt wird. Und fortschrittliche Komprimierung spart dabei sogar noch Kapazität ein.
4. Verfügbarkeit und Disaster Recovery an mehreren Standorten
Ein Stretched Cluster benötigt typischerweise zwei Standorte mit synchron gespiegelten, identischen SANs. Die Spiegelung benötigte bisher, ohne SDS, eine hohe Menge und Bandbreite über eine teure Standleitung. Intelligentes SDS kann Daten zur synchronen Spiegelung deduplizieren, was nicht nur die Bandbreite reduziert, sondern auch Wiederherstellung und Hochverfügbarkeit verbessert. Auch die Latenz wird damit deutlich verbessert, was die Entfernung der Standorte enorm erweitert. Mit SDS-Lösungen lassen sich Standorte mit bis zu 160 Kilometer Entfernung miteinander verbinden, mehr als das dreifache von bisherigen Lösungen. Mit nur einer Latenz von 8ms kann man VMs und Daten somit schnell zwischen einzelnen Speicherarrays oder ganzen Rechenzentren verschieben.
Es gibt zwei Optionen, hyperkonvergenter Infrastrukturen zu nutzen. Zum einen ist es eine Referenzarchitektur, die Server, Netzwerk und Speicher basierend auf SDS-Technologie spezifiziert und wo Software alle Ressourcen noch über dem Hypervisor kontrolliert sowie den Verwaltungsprozess abstrahiert. IT-Profis hätten bei dieser Option die vollkommene Freiheit der Hardware. Die zweite Methode besteht darin, eine komplett hyperkonvergente Appliance einzusetzen, die noch näher am großen Ziel ist – dem Rechenzentrum in der Kiste.
Der Vorteil einer schlüsselfertigen Appliance liegt auf der Hand. Sie löst viele Implementierungs- und Managementprobleme und bietet dabei die Vorteile von Hyperkonvergenz wie Hochverfügbarkeit, Kostenreduktion und mehr Agilität. Die Einfachheit und Leistung von hyperkonvergenten Lösungen machen sie ideal für KMUs, die im Prinzip die gleichen Probleme mit Ihrer IT haben wie Großunternehmen aber nicht einmal ansatzweise eine ebenso große IT-Mannschaft, um diese in den Griff zu bekommen.
Hyperkonvergierte Appliances sind außerdem einfacher zu skalieren, weil einfach Kapazität als zusätzlicher Node im Standard-X86-Faktor hinzugefügt werden kann. Die Beschaffung ist auch einfacher, weil es nur eine einzige Größeneinheit gibt und die Verwaltung wird obendrein vereinfacht, weil alle Nodes über nur eine einzelne Einheit kontrolliert werden. Eine hyperkonvergente All-Flash-Appliance kann außerdem den Support und den Vor-Ort-Service für drei Jahre für die komplette Appliance abdecken, was nicht nur die SDS-Technologie, sondern auch den Hypervisor, die SSDs und alle Serverkomponenten beinhaltet.
Über die einfache Installation, den Service und Support aus einer Hand hinaus sind hyperkonvergente Appliances einiger Hersteller von All-Flash-Speicher auch ökonomisch schon eine sehr gute Option. Die Nutzung von intelligenten Softwarelösungen wie Deduplizierung, Speicher-Virtualisierung und der intelligenten Beschleunigung von IO kann die Menge des benötigten Flash-Speichers enorm reduzieren und trotzdem hunderte von Server-VMs oder tausende von Desktops unterstützen. Und da sie All-Flash-Performance zu einem 50 bis 90 Prozent geringeren Preis als traditionelle SANs oder andere hyperkonvergente Systeme bieten, sind diese Appliances auch für KMUs interessant.
Das Rechenzentrum in der Kiste ist zwar noch nicht da, ist aber auch keine Zukunftsmusik mehr. Hyperkonvergente Systeme sind bereits jetzt verfügbar und bieten auch in der Praxis bereits alle Vorteile von SDS und Hyperkonvergenz. Aktuelle Produkte nutzen sowohl RAM als auch Flash für höchste Performance, bieten fortschrittliche Softwarefunktionen, unterstützen jeden Hypervisor und laufen auf unterschiedlicher Hardware. Ob und wann man ganze Rechenzentren einmal auf die Größe eines Smartphones verkleinern kann ist noch nicht sicher. Aber den Platzbedarf eines ganzen Rechenzentrums auf die Größe einer Kiste zu schrumpfen ist ja auch schon ein Quantensprung von dem Unternehmen profitieren könnten.
Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…
Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…
Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…
Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…
Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…