Steht Hyperkonvergenz vor dem Durchbruch?
Simplivity stellte in München vor der Presse die zum zweiten Mal durchgeführte Studie “State of Hyperconverged Infrastructure” vor. Demnach breitet sich die Technologie in Europa schneller aus als in den USA. Die Gründe sind vielfältig.
Hyperkonvergente Systeme haben sich weltweit einen großen und schnell wachsenden Anhängerkreis erarbeitet. Darauf deuten die Jahresvergleichszahlen hin, die Simplivity vergangene Woche in München präsentierte. 2016 nutzten Hyperkonvergente Infrastrukturen 37 Prozent (in Europa sogar 42 Prozent). Demgegenüber gehörten 2015 erst 24 Prozent der befragten Anwender weltweit zu den Hyperkonvergenz-Nutzern. Welche Art hyperkonvergenter Lösungen und welche Lieferanten dabei bevorzugt wurden, fragte ActualTech Media leider nicht.
ActualTech Media führte im Frühjahr des laufenden Jahres eine Studie bei 1098 Unternehmen über 100 Mitarbeiter durch, die aus USA (60 Prozent), zu rund einem Viertel aus EMEA und im Übrigen aus dem asiatisch-pazifischen Raum stammten. Rund 60 Prozent der Firmen hatten mehr als 1000 Mitarbeiter, der Rest weniger. 14 Prozent waren produzierende Unternehmen, 13 Prozent stammten aus der Informationstechnologie, 12 Prozent aus der Finanz- und Versicherungsbranche, viele weitere Branchen waren mit einem einstelligen Prozentsatz an Befragten vertreten. Funktional standen IT-Spezialisten unterschiedlicher Hierarchieebenen, vom CIO bis zu einfachen IT-Mitarbeitern im Zentrum, nur sieben Prozent der Befragten waren Firmenleiter oder Finanzverantwortliche.
Das Marktforschungsunternehmen definierte in dem Report zur Umfrage “hyperkonvergent” als vorintegriertes System aus einem Guss mit Server, Speicher und Vernetzung von einem Hersteller, das hochautomatisiert und vorwiegend softwaregesteuert arbeitet. Doch auf welche Lösung die Anwender sich beim Ankreuzen tatsächlich bezogen oder ob sie möglicherweise weitere und sehr individuelle Definitionen zugrunde legten, wurde nicht getestet.
Deshalb kann es sich bei den von den Antwortenden gemeinten Hyperkonvergenzsystemen um ein geschlossenes Big-Data-System, einen VCE-Block oder eine Lösung von Nutanix, Simplivity oder einem anderen der mittlerweile vielen Hersteller handeln, die sich das Etikett “Hyperkonvergenz” anheften. Das relativiert die Ergebnisse etwas.
Für wachsendes Vertrauen in die neue Infrastrukturklasse spricht jedenfalls, dass die drei wichtigsten Bedenken derer, die kein Interesse an hyperkonvergenten Systemen haben, eher mit generell fehlendem Investitionsinteresse denn mit technischen Hindernissen wie fehlender Sicherheit oder schlechten Funktionen zu tun haben: An der Spitze stand, dass die bestehende Infrastruktur zufriedenstellend arbeitet (36 Prozent), gefolgt von Kauf- und Implementierungskosten (27 Prozent), kürzlich erfolgten Infrastrukturaktualisierungen sowie fehlenden Zeit- und Personalressourcen für die Evaluierung (jeweils 26 Prozent der Nennungen).
Hyperkonvergenz verspricht Lösungen für drängende Probleme
Dass Anwender gern in hyperkonvergente Infrastruktur investieren, hat wahrscheinlich damit zu tun, dass sie ihnen Lösungen für sehr dringlich wahrgenommene Probleme liefert oder zumindest liefern könnte. Ganz oben steht auf der Prioritätenliste der IT-Spezialisten weltweit mehr Effizienz im IT-Betrieb, ein Thema, das 37 Prozent der Anwender für sehr wichtig in den nächsten 18 Monaten halten. Fasst man die beiden mit Datensicherheit assoziierten Themen Disaster Recovery (33 Prozent) und Backup/Recovery (31 Prozent) zusammen, könnte man allerdings auch sagen, dass Datensicherheit derzeit das brennendste Einzelproblem ist.
Weitere wichtige Problemfelder sind das Management des Datenwachstums (29 Prozent) und mehr Servervirtualisierung (27 Prozent). Stellt man dem die Erwartungen gegenüber, die das Interesse an Hyperkonvergenz antreiben, dann steht bei europäischen Interessenten die Kostenreduzierung mit 57 Prozent der Nennungen an der Spitze, gefolgt von mehr Effizienz (38 Prozent). Hier besteht also eine Übereinstimmung zwischen einem dringenden Bedarf und einer neuen Infrastruktur.
Betrachtet man dann allerdings die realen gegenüber den erwarteten Vorteilen, so stellt sich heraus, dass diese nicht immer deckungsgleich sind. Immerhin 33 Prozent der Anwender aus EMEA sahen in der verbesserten Effizienz einen der wichtigsten Nutzeffekt, doch nur 31 Prozent kreuzten bei der Frage nach den wichtigsten realisierten Vorteilen auch reduzierte Kosten an. Dass Kostenreduzierungen eintreten würden, hatten, wie oben dargestellt, immerhin 57 Prozent erwartet.
Woran das liegt, wird nicht weiter erklärt, man könnte aber vermuten, dass weitere genannte Nutzeffekte wie geringere Implementierungszeit (29 Prozent), besserer Support (23 Prozent), bessere Skalierbarkeit, schnellere Bereitstellung virtueller Maschinen, und weniger erforderliches Training (je 21 Prozent) das Fehlen rein finanzieller Vorteile auf der Infrastrukturseite überkompensieren.
Hyperkonvergente Systeme taugen auch für Business-Anwendungen
Hinsichtlich der potenziellen Einsatzfelder scheinen anfangs gern gehegte Vorbehalte dahinzuschmelzen. Denn inzwischen verwenden viele Anwender hyperkonvergente Plattformen für geschäftswichtige Applikationen. Bei der Frage nach den Einsatzzwecken differenzierte ActualTech Media zwischen Arbeitslasten (Workloads) und Einsatzfeldern (Use Cases), wobei diese Differenzierung trennscharf ist. Deshalb werden hier vor allem die Ergebnisse zu den Workloads referiert.
Die wichtigsten Workloads waren wie zu erwarten Test und Entwicklung (41 Prozent der Nutzer, 38 Prozent der Interessenten), gleich darauf folgte aber die Verarbeitung geschäftlicher Anwendungen (39 respektive 36 Prozent), Anwendungen zur Steigerung der Produktivität der Endanwender (39 sowie 32 Prozent), Big-Data-Anwendungen (37/30 Prozent), technische (28/19 Prozent) und branchenspezifische Applikationen (34/18 Prozent). Alle diese Workloads werden also in der Realität häufiger auf hyperkonvergenten Infrastrukturen implementiert als Interessenten das erwarten.
Seltener als Interessenten erwarten laufen auf der hyperkonvergenten Plattform traditionelle IT-Anwendungen (34/50 Prozent), VDI (Virtual Desktop Infrastructure) (32/30 Prozent) und Web-Applikationen (35/23 Prozent). Der mit weitem Abstand wichtigste Use Case ist mit 58 Prozent die Servervirtualisierung.
Simplivity-CEO Daran Kempel, der die Studienergebnisse evaluierte, sieht darin einen Beleg dafür, dass hyperkonvergente Infrastrukturen vor dem endgültigen Durchbruch stehen. Er präsentierte einige durchaus beeindruckende Anwenderbeispiele. Viele von ihnen stammen aus dem Finanzbereich, wo derzeit höchste Leistungsanforderungen oft mit Sparzwängen zusammenfallen.
Die indische Entwicklungsbank IDFC tauschte ihre Infrastruktur, bestehend aus NetApp, HDS und EMC, gegen 20 OmniStack-Systeme mit CiscoUCS als Server und Managementebene aus. Die Systeme sind über drei Sites verteilt. Alle virtualisierten Applikationen laufen dort.
Ein Unternehmen aus der Riege der weltweit 50 größten Firmen, ebenfalls Finanzdienstleister, der 436 Milliarden Euro Kapital verwaltet und 23 Niederlassungen weltweit unterhält, musste nach einem Aufkauf seine IT-Infrastruktur konsolidieren. Statt der sechs zuvor bestehenden Rechenzentren sind es heute noch drei Rechenzentren auf drei Kontinenten. Sie können sich gegenseitig bei katastrophalen Ausfällen ersetzen und arbeiten im Aktiv-Aktiv-Modus. Dort laufen 4000 virtuelle Maschinen mit Applikationen wie MS Exchange, SQL Server, Oracle, VDI und proprietären Anwendungen. Das Nachsehen hatten die bisherigen Infrastrukturlieferanten Pure, EMC, HP 3Par, Netapp und Nutanix.