Desktop-Virtualisierung: Nicht schon wieder oder jetzt erst recht?
Wer in einem mittelgroßen oder großen Unternehmen arbeitet, der erinnert sich wahrscheinlich noch an die Euphorie in Bezug auf Virtual Desktop Infrastructure vor ein paar Jahren – aber auch an die Enttäuschung nach den ersten Versuchen. Doch es gibt gute Gründe, dem Ansatz eine zweite Chance zu geben.
Auf dem Papier haben Rechner, die über wenig oder überhaupt keine eigene Intelligenz verfügen und sowohl Daten als auch Anwendungen von einer Zentrale beziehen, nur Vorteile. Sie brauchen weniger Strom, sind günstig in der Anschaffung, leichter zu warten und weniger anfällig für die Gefahren, die einem kompletten Desktop-Rechner oder Notebook heute drohen. Obendrein lässt sich noch wesentlich besser kontrollieren, welche Programme damit genutzt werden können. So viel zur Theorie.
In der Praxis sah das aber lange anders aus. Eine Virtual Desktop Infrastructure (VDI) wurde lange auch damit beworben, dass sogenannte Thin Clients verwendet werden können, die alle der oben genannten Vorteile bieten. Allerdings setzten sie für eine vernünftige Nutzung oft bessere Netzwerkverbindungen voraus, als tatsächlich vorhandenen waren. Zudem konnten sie in Bezug auf Multimedia – was zum Beispiel auch für Bemühungen im Bereich Unified Communications bedeutsam wurde – oft nicht das bieten, was Anwender und Firmen erwarteten.
Thin Clients wurden daher für Aufgaben im Büroumfeld aufgerüstet – einmal abgesehen von denen, die in ansehnlichen Nischen wie Arztpraxen, Einzelhandel, Gastgewerbe oder Spezialanwendungen zum Beispiel an Flughäfen und Bahnhöfen zum Einsatz kamen. Sie bekamen zusätzliche Rechenleistung, weitere Schnittstellen, Spezialsoftware und bessere Grafik. Etwa 2008 waren sie dann soweit, dass man ihnen ernsthaft zutraute, Desktop-Rechner großflächig ablösen zu können. Studien, auch von renommierten Einrichtungen wie dem Fraunhofer Institut, wiesen im Zuge des damals vieldiskutierten Themas “Green IT” zudem auf Einsparungen bei Strom und Material hin.
2012 beschworen die Autoren einer vom Umweltbundesamt mitfinanzierten Studie IT-Verantwortliche, auf die zentrale Bereitstellung von IT-Ressourcen zu setzen und legte ihnen als geeignete Endgeräte auch für Büroumgebungen Thin Clients nahe. Was aus Umweltgesichtspunkten sicher sinnvoll war, hatte in der Welt der IT-Projekte kaum eine Chance: Für die in der Studie vorgerechneten Einsparungen von 20 Euro pro Jahr und Arbeitsplatz wollte sich fast niemand den für eine Umstellung erforderlichen Aufwand zumuten.
Zudem standen andere Aufgaben im Vordergrund: Schließlich galt es dafür zu sorgen, dass Mitarbeiter – besonders die aus der Führungsebene – mit Smartphones und Tablets mobil und flexibel arbeiten können. So wurde damals dieser Anlauf der Thin Clients, den Markt zu erobern, vielfach durch das Aufkommen praxistauglicher Tablets ausgebremst. Diverse Bereiche entdeckten damals Tablets als eine Art “mobilen Thin Client”, etwa das Gesundheitswesen. Nach anfänglicher Begeisterung ist man nun auch hier etwas nüchterner geworden und denkt inzwischen eher darüber nach wie sich Tablet, Thin Client und BYOD im Gesundheitswesen kombinieren lassen, um alle Anforderungen bestmöglich abzudecken.
Parallel etablierte sich mit den Ultra Thin Clients respektive Zero Clients eine leichtgewichtige Alternative zu den inzwischen etwas fülliger geworden “Thin Cients”. Die Neulinge machten den Alteingesessenen besonders in deren ureigenen Revieren das Leben schwer – da wo all die neuen und für Büroarbeitsplätze gedachten Funktionen nicht benötigt werden. Verantwortlichen wurde dadurch die Auswahl des richtigen Clients nicht leichter gemacht.
Doch auch diese Berechnungen waren auf dem Papier schöner als in der Praxis. Denn es stellte sich heraus, dass der Verzicht auf Rechenleistung und Speicher am Arbeitsplatz dazu führte, dass beides im Rechenzentrum vorgehalten werden musste – wo die entsprechenden Komponenten teurer sind. Unterm Strich war das Projekt damit für Firmen im Mittelstand, die im Wesentlichen Büroumgebungen damit versorgen wollten, schlichtweg unrentabel. Einsparungen im Infrastrukturmanagement wurden meist von höheren Kosten für Storage aufgefressen. Einer 2013 durchgeführten Umfrage zufolge schreckten kleinere Unternehmen besonders die Investitionskosten für spezialisierte Storage-Infrastrukturen mit der notwendigen Leistung und Hochverfügbarkeit für eine VDI-Umgebung ab.
Die meisten hatten für sich bei der Suche nach der richtigen Desktop-Infrastruktur ausgerechnet, dass sich eine virtuelle Infrastruktur erst bei 1000 oder mehr Arbeitsplätzen lohnt, da dann die anfänglichen Investitionskosten im Vergleich zu den Gesamtprojektkosten weniger ins Gewicht fallen.
Allerdings hat sich in den vergangenen drei Jahren erneut einiges getan. Firmen wie Nutanix, die mit konvergenten Infrastruktur-Appliances auf den Markt drängten, haben die Kosten im Backend deutlich reduziert. Damit lassen sich die schon 2013 von der Mehrheit der Befragten anerkannten Vorteile von virtuellen Desktops nun auch wirtschaftlich umsetzen – auch bei weniger als 1000 Arbeitsplätzen.
Ein weiterer Trend ist die zunehmende Akzeptanz bei den Mitarbeitern für andere Geräte als den guten alten Desktop-Rechner: Was mit Notebook und Tablet gelernt und praktiziert wurde, wird nun durch Angebote wie Workplace as a Service (WaaS) und Desktop as a Service (DaaS) – sozusagen die in die Cloud verlängerten, früheren Thin-Client und VDI-Konzepte, akzeptabel. Es lohnt sich daher auf alle Fälle, die vor Jahren zur Seite gelegten Berechnungen noch einmal durchzugehe. Denn die Variablen haben sich geändert.
Ausgewählte Whitepaper zum Thema:
VDI-Einführung ohne komplexe Hürden
So bekommen Sie die richtige Desktop-Infrastruktur
Desktop-Virtualisierung: Der Ansatz entscheidet
Thin, Zero oder runderneuerter PC? Welcher Client passt zu mir?
“Mit Virtual Desktop Infrastructure BYOD den Schrecken nehmen
Tablet, Thin Client und BYOD im Gesundheitswesen – kann das funktionieren?