In der Untersuchung „State of the CIO“ aus dem Jahr 2017 gaben 87 Prozent der befragten CIOs an, ihre Aufgabe sei herausfordernder als je zuvor. 72 Prozent sagten, dass sie ständig damit kämpfen, die richtige Balance zwischen Innovation und herausragender Leistung bei den laufenden Aktivitäten zu finden. Kein Wunder: Müssen sie doch wie schon immer den Betrieb unter allen Umständen am Laufen halten. Gleichzeitig ändert sich aber das geschäftliche Umfeld der Kerngeschäftsaktivitäten in einem noch nie dagewesenen Tempo, und von den CIOs wird erwartet, dass sie für jede neue Herausforderung eine passende Lösung parat haben, die die geschäftlichen Abläufe optimal unterstützt. Letztlich wollen CIOs, um ihre Ziele besser zu erreichen, neben diesen beiden Aufgaben noch eine dritte umsetzen: ihre IT vereinfachen. Dazu kommen rechtliche oder auch Kundenanforderungen, zum Beispiel bezüglich des Ortes, an dem bestimmte Daten zu halten sind, bezüglich der gewünschten Service Level und so weiter.
Um das alles zu realisieren, stehen unterschiedliche Umsetzungs- und Erbringungsvarianten zur Verfügung – von klassischer dedizierter Architektur, ihren hyperkonvergenten und softwaredefinierten Varianten reicht das Angebot über Private, Managed bis hin zur Public Cloud, aus der IT von einem Dienstleister standardisiert als Service bezogen wird. Alle Architekturvarianten haben bei all ihren Unterschieden eines gemeinsam: Keine kann allein alle gestellten Anforderungen optimal erfüllen.
Ein Trend ist in Hinblick auf die IT-Architektur der Zukunft deshalb von besonderer Bedeutung: der zum Next Generation (Next Gen) Datacenter. IDC definiert das Konzept in einer Studie zum Thema als eine Kombination aus der allumfassenden Virtualisierung von Servern, Storage, Netzwerk, kombiniert mit einer Software Defined Infrastructure (SDI), gegebenenfalls Software-Containern und Mikroservices sowie unterschiedlichen Cloud-Varianten.
Die Notwendigkeit, Next-Generation-Architekturen zu realisieren, spiegelt sich in den aktuellen Umfrageergebnissen der IDC-Studie wieder: Die 205 IT-Entscheider, die IDC im Jahr 2017 (Next Generation Data Center – Trends in Deutschland 2018, PDF)zum Thema befragten, gaben zu 73 Prozent an, dass sie ihr Data Center im Zuge der digitalen Transformation massiv transformieren müssen. Doch diese Umstellung stellt sie auch vor Herausforderungen: 31 Prozent beklagen die große Komplexität der Technologie, 26 Prozent fehlt Wissen zu SDI.
Die angestrebten Ziele der Datacenter-Renovierung, deren wichtigste höhere Effizienz und Effektivität der IT (37 Prozent), Kosteneinsparungen (34 Prozent) sowie bessere Sicherheit und Compliance (29 Prozent) sind, werden sich aber ohne Next-Generation-Datacenter kaum realisieren lassen. Erst dessen Fähigkeit, unterschiedlichen Technologien und Services unter einem Dach zu integrieren, bietet Unternehmen die nötige Flexibilität und Agilität für den digitalen Wandel.
Jede Erbringungsvariante hat spezifische Stärken und Schwächen
Dedizierte Systeme nach herkömmlicher Technik bieten den Vorteil kompletter Kontrolle über Nutzung, Betrieb, Sicherung und Investitionszyklen. Sie sind aber auch verhältnismäßig teuer, aufwändig in der Wartung und müssen aufgrund der schnellen Zyklen, in denen sich Technologie weiterentwickelt, alle paar Jahre ausgewechselt werden. Das bedeutet eine aufwändige Planung von Investitionen, die viel Kapital bindet. Läuft es dann anders als gedacht, ist das Geld bereits ausgegeben.
Hyperkonvergente Infrastruktur vereinigt Storage, Server und Vernetzung unter einem einheitlichen Managementdach, ist nahezu beliebig horizontal skalierbar und dürfte so manches dedizierte System bald ersetzen. Bausteinartig lässt sich die Leistung solcher Lösungen durch Hinzufügen einzelner Module erweitern. Ihr Nachteil liegt häufig in der für bestimmte Aufgaben möglicherweise nicht ausreichenden Granularität. Nach Meinung von 44 Prozent der von IDC befragten Spezialisten liegt ein wichtiger erwarteter Nutzen hyperkonvergenter Architekturen in einer besseren Auslastung der Ressourcen.
Vollständig softwaredefinierte Infrastrukturen, etwa auf Basis von HPE Composable Infrastructure, bieten einen bislang nicht gekannten Grad an Integration der unterschiedlichen Systemebenen bei voller Flexibilität hinsichtlich deren anwendungsspezifischer Konfiguration. Bei diesen Systemen lassen sich idealerweise die Ressourcen einer Anwendung mit minimalem Aufwand – mit nur einer Programmierzeile – und ohne Zugriffe auf mehrere Managementanwendungen konfigurieren. Gleichzeitig finden mehrere Anwendungen auf einem System Platz – jede in ihrer spezifischen Konfiguration. Sie sind wegen ihrer Eigenschaften die Architektur der Zukunft: 80 Prozent der von IDC Befragten kennen den Begriff, in der Praxis taucht Composable Infarastructure aber derzeit erst vereinzelt auf.
Private Clouds, die auf Basis virtualisierter Infrastrukturprodukte bereitgestellt werden können, bieten mehr Flexibilität, die vorhandenen Ressourcen erheblich besser auszunutzen, da Infrastrukturtürme aufgebrochen werden und als Pool zur Verfügung stehen. Die IT kann aus der Private Cloud wie aus der Public Cloud als Service bereitgestellt und abgerechnet werden. Die Investitionserfordernisse bleiben aber, gepaart mit der Notwendigkeit, die Private Cloud richtig zu dimensionieren, selbst zu verwalten und sie auf den richtigen Technologien aufzubauen.
Gemanagte private Ressourcen, ob Cloud oder dediziert, haben den Vorteil, die Lasten von Wartung und Support, durchaus auch der Weiterentwicklung der Infrastruktur, einem Dienstleister anzuvertrauen, obwohl die Ressource beim Kunden steht. Der Komfort hat aber seinen Preis: Üblicherweise sind entsprechende Verträge eher langfristig – eine Managed-Lösung nur jeweils für den Monats-Letzten, wenn große Abrechnungsdurchläufe stattfinden, wird kaum ein klassischer Anbieter im Portfolio haben, dazu ist der Aufwand zu groß. Dass die IT-Ressourcen nur einem Kunden zur Verfügung stehen, verteuert sie. Bei der klassischen Managed-IT ist es zudem erforderlich, dass persönliche Schnittstellen geschaffen, Abläufe aufeinander abgestimmt und Prozesse definiert werden. Kurz: Für bestimmte Aufgaben, die vorhersehbar längerfristig anfallen, eine gewisse Komplexität besitzen und deren Infrastruktur man nicht völlig aus der Hand geben möchte, ist Managed Service auch heute die beste Lösung.
Stehen die IT-Ressourcen in den Räumen eines Serviceanbieters, spricht man von Hosting oder Colocation, wenn die Dienstleistung in der Regel nur in der Bereitstellung von Raum und Umgebungsinfrastruktur besteht, die Anwender ihre Systeme also selbst verwalten. Das Kundenunternehmen hat hier weit mehr Kontrolle darüber, wer was mit seinen Systemen tut als bei Public-Infrastrukturen, spart sich aber den Bau und den Betrieb eines eigenen Rechenzentrums. Auch hier sind aber Varianten denkbar, bei denen der Dienstleister auch den Betrieb der Systeme übernimmt, obwohl sie ihm nicht gehören. Laut IDC wächst das Interesse an Colocation-Services, denn 70 Prozent der Befragten sehen sich vällig neuen Anforderungen an Bandbreiten, Konnektivität und Latenz gegenüber.
Public-Cloud-Services bestechen durch ihre schnelle Bereitstellung, Flexibilität, ein schnell wachsendes Portfolio immer weiter ausdifferenzierter Services und immer neuer Anbieter sowie eine Kostenstruktur, die fast ohne materielle Investitionen auskommt. Es gibt sie in unterschiedlichen aaS (as a Service)-Erbringungsvarianten – von der Infrasturktur (IaaS) über Plattformen (PaaS) bis zu einzelnen Softwareprodukten (SaaS) und zunehmend weiteren Leistungen wie Payment, Zertifizierung und so weiter, die ebenfalls als Online-Dienstleistung erbracht werden.
Public Cloud passt ideal zu Aktivitäten, die ohnehin auf die Cloud ausgerichtet sind, beispielsweise die schnelle Softwareentwicklung nach DevOps-Prinzipien. Auch Backup oder Disaster Recovery mit Hilfe der Cloud sind heute schon Selbstverständlichkeiten, genau wie Aktivitäten rund um das Management von Kunden, wie es etwa Salesforce anbietet. Zunehmend werden Non-Core-Anwendungen wie die Personalverwaltung in die Cloud ausgelagert, zumal sich Sicherheitsbedenken immer mehr verflüchtigen und im Zuge der Umsetzung der EU-DSGVO weiter an Bedeutung verlieren dürften.
Dennoch würde wohl kaum jemand ohne Bauchgrimmen das Kernwissen seiner Entwicklungsmannschaft ausschließlich Cloud-Services anvertrauen. Diese Daten und Prozesse entscheiden über die Zukunftsfähigkeit eines Unternehmens, weshalb die meisten Firmen sie lieber in Griffweite respektive ihrem physischen Einflussbereich belassen. Wie erfolgreich die Public Cloud ist, zeigt sich darin, dass 79 Prozent der Unternehmen angeben, bereits mindestens eine Applikation dorthin verschoben zu haben.
Für jede App der richtige Ort
Wenig verwunderlich angesichts dieses heterogenen Bildes, hat sich daher in den vergangen Jahren Hybrid IT, also die Mischung unterschiedlicher Ressourcen und Erbringungstypen in einer Infrastruktur, als Leitmodell der Unternehmens-IT herausgebildet.
Dabei bedeutet dieser Begriff mehr als nur die Auswahl des richtigen Dienstleisters oder der richtigen physischen Plattform. Vielmehr müssen, um das individuell richtige Modell zu implementieren, auch die Managementprozesse, das Mindset von Management und Mitarbeitern, die Situation auf den adressierten Märkten und so weiter analysiert werden.
Im Mittelpunkt jedes Hybrid-IT-Konzepts steht die Aufgabe, für jede Applikation einzeln zu bestimmen, wohin sie am besten passt. Dazu muss analysiert werden, welche Funktion und welchen Wert sie im Unternehmenskontext hat, wie ihre Anforderungen sind und wo Risiken liegen, wenn etwa Daten abhandenkommen. Weil Hybrid IT für eine solche Platzierungsentscheidung anders als IT-Monokulturen welcher Art auch immer viele Optionen anbietet, ist die Chance erheblich größer, am Ende tatsächlich eine optimale Ressource für jede individuelle App zu finden, auf der sie das Unternehmen bestmöglich dabei unterstützen kann, seine Ziele zu erreichen. Gleichzeitig steht bei einer hybriden Infrastruktur der Weg offen, diese Platzierungsentscheidung zu modifizieren, wenn und sobald sich die Umstände verändern.
Dabei wird eine Platzierungsentscheidung immer die übergeordneten Ziele der IT im Auge behalten. Sie bestehen laut der Untersuchung „State of the CIO 2017“ vor allem darin, das Kundenerlebnis zu verbessern (40 Prozent), die Effizienz der Betriebsabläufe zu erhöhen (35 Prozent) und bestehende Prozesse zu transformieren (34 Prozent).
Die zu berücksichtigenden Risiken sind rechtlicher, operativer, finanzieller und sicherheitstechnischer Natur. So ist zu klären, welchen rechtlichen Anforderungen Applikationen unterliegen. Das muss nicht heißen, dass eine streng reglementierte Applikation nicht in die Cloud verlagert werden darf. Allerdings wird man an Cloud-Provider, bei denen eine solche Applikation laufen soll, besonders hohe Sicherheits- und Zuverlässigkeitsanforderungen stellen müssen.
Das Ziel all dieser Bemühungen ist am Ende ein erfolgreicheres Kerngeschäft. Dazu gehört die Produktivität der Mitarbeiter genauso wie die Zufriedenheit der Kunden. Das größte Risiko so grundlegender Überlegungen besteht darin, sich zu sehr auf die Technologie zu fokussieren statt auf das Gesamtbild.
IDC rät in seiner Studie, das Next Generation Datacenter auf Basis der oben genannten Technologien als Schlüsselfaktor einer erfogreichen Digitalisierung zu betrachten. Anwender sollten den Status ihres Datenzentrums und aller externen Services und Dienste evaluieren und den Wert der unterschiedlichen Technologien in Hinblick auf die spezifischen Anforderungen ihres Unternehmens prüfen. Sie sollten darauf achten, nicht zu sehr an einen Hersteller oder Anbieter gebunden zu sein (Vendor Lock-In) und für relevante Workloads gezielt Migrationspfade in die Cloud entwickeln.
Den richtigen Partner finden – für Apps und Beratung
Eine wichtige Rolle beim Weg zum Next Generation Datacenter spielt die Wahl der richtigen Partner: Wer eine aufwändige dedizierte Infrastruktur für eine am Ende kurzlebige Applikation aufbaut, hat viel Geld verpulvert. Doch auch die Public Cloud hat ihre Pferdefüße, die ein genaues Hinsehen bei der Providerauswahl nötig machen: Hier liegt das Problem oft im Netz und den Gebührenstrukturen. So verlangen Storage-Infrastruktur-Anbieter zwar selten Gebühren für das Hochladen von Daten, der Transport in die umgekehrte Richtung, etwa das Rückspielen eines Backups, kann aber durchaus teuer werden. Ist die Anbindung nicht breitbandig genug, wird gerade die Übertragung größerer Datenmengen für welchen Zweck auch immer zum Geduldspiel. Außerdem gilt es, einen Lock-In zu vermeiden: Cloud-Provider sollten ihren Kunden auch dann akzeptable Angebote machen und sie unterstützen, wenn sie eine Applikation oder Ressource woanders hin migrieren möchten. Auch die Skalierung von Ressourcen ist nicht immer so kostengünstig wie gern suggeriert wird. Auch auf eine mögliche Second Source, wenn ein Provider seine Bedingungen unvorteilhaft ändert, sollte man achten.
Wer richtig wählt, arbeitet am Ende mit Partnern, die Ressourcen und Services anbieten, die für den eigenen Bedarf optimiert sind, und behält gleichzeitig die Wahlfreiheit, ohne zu hohen technischen oder administrativen Aufwand auch einen anderen Anbieter oder eine andere Erbringungsform zu wählen. Diese Flexibilität der Hybrid Cloud ist es, dank derer sich Unternehmen erfolgreicher als andere den immer neuen Herausforderungen und Veränderungen des Kerngeschäfts anpassen – oder aber selbst solche Veränderungen anstoßen können. Unternehmen mit einem Fokus auf hybrider IT sind für wegweisende Innovationsschritte bestens gerüstet, da sie einerseits ihr Kern-Know-how bewahren, andererseits aber Cloud-Native-Technologien verwenden, um neue Prozesse, neues Wissen, neue Services oder Produkte schnellstmöglich auf die Märkte zu bringen. Solche Unternehmen haben die Chance, aus der digitalen Transformation als Gewinner hervorzugehen.
Dafür sind allerdings auch zuverlässige und bewährte Infrastruktur- und Beratungspartner erforderlich. Infrastrukturanbieter sollten alle nötigen Infrastrukturkomponenten im Portfolio haben. Sie sollten Hybrid IT als Grundmodell der Unternehmens-IT verinnerlicht und ihre Angebote darauf zugeschnitten haben.
Bei HPE haben Anwender die Wahl zwischen unterschiedlichsten Infrastrukturprodukten für jeden Bedarf – vom kleinen mittelständischen Betrieb bis zum international agierenden Enterprise. Auch Managed Services gehören zum Programm. Zudem besitzt HPE langjährige Erfahrung in der Gestaltung von Change-Prozessen und kann für seine Kunden insofern auch beratend tätig werden, um sie bei der digitalen Transformation zu unterstützen.
Das bietet HPE für die Hybrid Cloud
Konvergente (Convergent) Infrastructure ist oft ein guter Weg, sich von der überkommenen dedizierten Infrastruktur in Richtung flexiblerer Modelle auf den Weg zu machen. Sie kombiniert in der Regel Server, Speicher und Netzwerkkomponenten. Oft werden dafür bereits existierende Komponenten verwendet, bereits in Racks eingebaut, verkabelt und vorkonfiguriert.Bei HPE Converged System stammen alle drei von einem Hersteller, was eine besonders enge Integration zwischen den Infrastrukturkomponenten ermöglicht. Denn es müssen nicht unterschiedliche technische Konzepte vereinigt werden.
Wer mehr Integration möchte, kann zu HPE SimpliVity 380 greifen. Diese hyperkonvergente Lösung der Enterprise-Klasse vereinigt Storage, Server und Netzwerkkomponenten unter einem Hypervisor und einem Betriebssystem zu einem Cluster. Er ist der horizontal durch das Zufügen weiterer Knoten einfach erweiterbar, sobald die Leistungsanforderungen steigen. Funktionen wie Systemzugang, Verschlüsselung, Backup, Disaster Recovery etc. übernimmt für alle Infrastrukturkomponenten das Betriebssystem. Das Management erfolgt VM-zentrisch und mobil. Basis des Systems sind HPEs bewährte ProLiant DL380-Server. Als Managementplattform für das Gesamtsystem dient VMware vSphere.
Die komplexesten Anforderungen im Rechenzentrum erfüllt HPE Composable Infrastructure. Realisiert wurde sie in HPE Synergy. Bei diesem System werden physische Systemkomponenten, also Server, Speicher, Chassis und Netzwerkkomponenten, zusammen mit der Software, die das System managen soll, erstellt und in der Plattform integriert. So arbeiten beide Seiten besonders gut zusammen. HPE Composable Infrastructure unterstützt physische, virtuelle und containerisierte Workloads, denen individuell Ressourcen des Systems zugewiesen werden.
Das Management von HPE Synergy wird durch den HPE Synergy Image Server vereinfacht, der eng mit dem HPE Synergy Composer zusammenarbeitet. In letzterem werden die Systemressourcen definiert, die eine bestimmte Applikation oder Workload generell erfordert, das sogenannte Workload-Profil, und zwar mit Hilfe einer einzigen Befehlszeile. Neben dem Workload-Profil gehören zu einer vollständigen Image Payload auch noch ein Gold-Image, eine Betriebsumgebung mit bootfähigem Betriebssystem, Anwendung und I/O-Treiberversion und die Personality (Betriebssystem- und Anwendungskonfiguration). Damit lassen sich bootfähige Images konsistent über zustandslose Rechenmodule hinweg bereitstellen.
Für HPE Synergy sind unterschiedliche Softwareoptionen verfügbar: Zusammen mit HPE Helion CloudSystem lassen sich auf HPE Synergy sogar Private-Cloud-und herkömmliche Applikationen gemeinsam auf einer Plattform betreiben. Bislang war das unmöglich. Wer eher zur Open-Welt tendiert, kann HPE Synergy mit HPE Helion OpenStack, HPEs Variante des bekannten Open-Protokollstapels, verwenden. Hier stehen die wesentlichen Funktionen als Infrastrukturservice zur Verfügung.
Weitere Produkte von HPE für die hybride IT-Welt sind HPE ProLiant für den Microsoft Azure-Stack und HPE Composable Storage. Ersteres Serverprodukt verwandelt die interne IT mit geringstmöglichem Aufwand in eine Hybrid-Cloud-IT, deren Protokollwelt kompatibel ist zu Microsoft Azure. HPE Composable Storage ist ein flexibler Pool unterschiedlicher Speicheroptionen, die sich, angepasst auf die sie nutzenden Workloads zusammenstellen lassen. Dazu gehören voll integrierte interne Speichermodule, softwaredefinierte Speicher und direkt angeschlossener Composable SAN Storage, darunter HPE 3PAR StoreServ Flash Arrays.
Übergreifendes Management
Als übergreifende Management- und Automatisierungsplattform der Infrastrukturmodelle HPE SimpliVity, HPE Composable Infrastructure sowie herkömmlicher Blades und Server fungiert HPE OneView. Die übergreifende Verwaltung hat eine Reihe von Vorteilen: Vorlagen und Softwareintelligenz erleichtern der Administration wichtige Einstellungen. Ein intuitiv bedienbares Dashboard zeigt den Status aller Systemkomponenten an und eröffnet auch den Zugriff auf die Stromversorgung und die Remote-Steuerung. Eine einheitliche API ermöglicht die Integration unterschiedlicher Umgebungen. Rund-um-die-Uhr-Support sorgt dafür, dass Anwender mit ihren Problemen und Herausforderungen nie allein bleiben.
Wenn es schließlich darum geht, erst einmal das richtige Konzept zu entwickeln oder es anschließend umzusetzen, hilft HPE Pointnext, HPEs Serviceorganisation. Drei unterschiedliche Gruppen betreuen Kunden rundum bei allen aufkommenden Fragestellungen: Die HPE Pointnext Advisory & Transformation Services Group hilft bei der strategischen Transformationsplanung und entwickelt mit den Kunden ein praktikables Umsetzungsmodell. Das HPE Pointnext Professional Services Team ist zuständig für die frist- und budgetgerechte Implementierung und die kreative Optimierung der entwickelten Lösungen. Das Operational Services Team schließlich übernimmt bei HPE Pointnext für seine Kunden die gesamte Verantwortung für den IT-Betrieb.
Insgesamt präsentiert HPE damit seinen Kunden ein Rundumangebot von Lösungen über Services und Beratung, hinter dem jahrzehntelange Erfahrung mit der Unternehmens-IT von Firmen aus allen Branchen weltweit steht. So unterstützt, sollten Unternehmen nicht länger davor zurückschrecken, den Sprung in die flexible, agile Welt der Hybrid Cloud zu wagen und damit fürs Kerngeschäft das Beste aus allem herauszuholen, was die IT heute anbietet.
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…