Categories: Cloud

IT aus der Public Cloud vor Ort realisieren

Unternehmen müssen heute im Rahmen ihrer digitalen Transformation immer schneller agieren. Sie müssen auf externe Trends eingehen, aber auch schnell neue, digitale Geschäftsmodelle, Produkte und Services kreieren und bei Bedarf skalieren können. Dabei steht ihnen eine herkömmliche Vor-Ort-Infrastruktur im Weg.

Denn diese bindet laut IDC rund 80 Prozent der Aufwände von IT-Administratoren für die alltägliche Arbeit. Deswegen können die IT-Spezialisten sich viel zu selten ihrer eigentlichen Aufgabe, nämlich der digitalen Transformation und der Entwicklung neuer digitaler Wertschöpfungsoptionen, widmen.

Das zeigt eine von IDC ermittelte Tätigkeitsliste mit dem jeweiligen Anteil an der Arbeitszeit der Administratoren und IT-Kräfte: Zu den Aufgaben, mit denen sich IT-Administratoren beschäftigen, gehören nach einem aktuellen Whitepaper von IDC das SLA-Management (13,8 Prozent), das Monitoring (12,9 Prozent), die Beseitigung von Fehlern (12,6 Prozent), die Installation und die Bereitstellung von Hardware (10,7 Prozent), Aufgaben rund um die Herstellung von Compliance (9,8 Prozent), die Installation von Betriebssystemen oder Virtualisierungslösungen (7,1 Prozent), das Management der IT-Ressourcen und deren Analyse (7,0 Prozent), Patching und Aktualisierungen sowie Leistungsmanagement und Tuning (jeweils 6,9 Prozent).

Dazu kommen weitere Nachteile: Traditionelle On-Premises-IT lässt Anwender häufig monatelang auf benötigte IT-Ressourcen warten und ist wartungsintensiv. Sie erfordert kostspielige Kapitalinvestitionen, die sich erst langfristig, etwa nach drei bis fünf Jahren, amortisieren. Dann braucht das Kerngeschäft möglicherweise schon wieder ganz andere Formen der Infrastruktur, weil die Technologie und die auf ihr basierenden Geschäftsmodelle rasant fortschreiten.

Eine derartige IT behindert nicht nur die Wettbewerbsfähigkeit der Unternehmen. Sie schafft auch zusätzliche Risiken für Sicherheit und Compliance, beides Themen, die mit dem Inkrafttreten der EU-DSGVO (Europäische Datenschutz-Grundverordnung) am 25. Mai 2018 noch wichtiger werden. Denn von den langen Bereitstellungszeiten der IT-Abteilung frustrierte Anwender tendieren dazu, Dienste und IT-Kapazitäten, die ihnen die interne IT erst nach Monaten oder gar überhaupt nicht bieten kann, auf eigene Faust als Public-Cloud-Service zu besorgen. So entsteht eine von der IT weder finanziell noch funktional oder sicherheitstechnisch kontrollierbare Schatten-IT, die nicht den neuen rechtlichen Anforderungen entspricht.

Public Cloud ist kein Allheilmittel

Doch die IT-Abteilungen von Unternehmen können auch nicht unbedenklich auf Public-Cloud-Services zurückgreifen, um Bedürfnisse ihrer Anwender aus den Fachabteilungen zu befriedigen. Es hat sich zwar hinsichtlich der Sicherheit von Public Clouds schon einiges verbessert. Dennoch werden nur wenige Unternehmen sensible, unternehmensentscheidende Workloads ohne Weiteres einer Public Cloud zur Verarbeitung übergeben – vor allem deshalb, weil diese externen Ressourcen in keiner Weise der internen Kontrolle unterliegen.

Das kann gerade bei Anwendungen wie Backup, einer inzwischen durchaus häufig in die Public Cloud ausgelagerten Applikation, fatale Folgen haben. Wenn in der Public Cloud gesicherte Daten wiederhergestellt werden müssen, aber der Export dieser Daten kostspielig ist und möglicherweise länger als erwartet dauert, summieren sich die Ausfallzeiten der durch den jeweiligen Störfall beeinträchtigten Dienste. Das kann je nach dem betroffenen Dienst schnell zu erheblichen Kosten führen – etwa bei Einkaufs- oder Banking-Plattformen. Ein Imageschaden für das betroffene Unternehmen, wenn Online-Services nicht wie erwartet verfügbar sind oder Transaktionen abbrechen, kommt noch hinzu.

Was also tun? Am besten wäre es sicher aus Anwendersicht, die Vorteile von Public und Private Cloud zu verbinden. Dann bekommt dass das Unternehmen das Beste aus beiden Welten: die Schnelligkeit, Flexibilität und die nutzungsbezogene Abrechnung der Cloud, gepaart mit der Sicherheit und Kontrolle, die nur eine Private Cloud bieten.

IT-Services á la carte: On-Premise-IT-as-a-Service

Diese Kombination bietet IT as a Service, realisiert am Standort des Kunden. IDC bezeichnet diesen neuen Trend als On-Premise-IT-as-a-Service. Kombiniert werden hier bedarfsorientiert skalierende und abgerechnete IT-Ressourcen mit dynamischen Supportangeboten. Auf diese Weise haben die IT-Ressourcen immer die aktuelle Firmware und den richtigen Patchstand, die Leistung entspricht den Erwartungen. Sicherheits- und Complianceanforderungen sowie die internen Governance-Regeln werden eingehalten genau wie die angestrebten und mit dem externen Dienstleister vereinbarten Service Level. Die IT-Systeme werden regelmäßig aktualisiert, ohne dass der Anwender sich darum kümmern muss. Gleichzeitig ist er unabhängig von der Preisgestaltung, der Entfernung oder der Datenschutzkompetenz eines Public Cloud Providers. Vielmehr erfolgt die Abrechnung anhand möglichst transparenter, einfacher und verbrauchsbasierter Metriken, so dass Kosten kalkulierbar werden.

Anwender können mit dieser Erbringungsform nicht nur technisch oder in Hinblick auf die Compliance profitieren, sondern auch wirtschaftlich: Variable, nutzungsbasierende Kostenstrukturen ersetzen Kapitalinvestitionen. Ressourcen wachsen und schrumpfen mit dem Geschäft und hinken ihm nicht hinterher. Ermüdende Alltagstätigkeiten werden ausgelagert, so dass das interne IT-Personal sich wertsteigernden Aktivitäten widmen kann. Und schließlich wird Ausfällen mittels Überwachung aus dem Hintergrund durch erfahrene, auf dieses Thema spezialisierte Servicekräfte und die von ihnen genutzten intelligenten Softwarewerkzeuge vorgebeugt. Doch einmal auftretende Störungen und Ausfälle werden schnellstens und unabhängig von den internen Personalkapazitäten des Anwenders beseitigt. Die Möglichkeit, bei plötzlichen Bedarfsspitzen Erweiterungsressourcen dennoch aus der Public Cloud zu beziehen (Bursting), bleibt erhalten. Für Abteilungen bedeutet der Pay-Per-Use-Ansatz einen weiteren Schritt, sich von einem Kostenfaktor hin zu einer wertschöpfenden Einheit zu entwickeln, da keine hohen Fixkosten für IT-Equipment geschultert werden müssen, sondern die IT-Kosten des entsprechenden Bereichs sich an den tatsächlich beanspruchten Ressourcen orientiert.

Es verwundert also nicht, dass IDC prognostiziert, bis 2020 werde die Beschaffung verbrauchsorientierter IT klassische IT-Beschaffungsmodelle überflügeln, weil es verbesserte as-a-Service-Modelle geben werde. Verbrauchsorientierte Modelle sollen dann 40 Prozent der Unternehmensausgaben für IT-Infrastruktur ausmachen. Und auch das Marktforschungsunternehmen Frost & Sullivan ist überzeugt: „Visionäre IT-Manager werden versuchen, ein Cloud-ähnliches Nutzungserlebnis innerhalb des Unternehmens-Rechenzentrums zu realisieren, indem sie verbrauchsorientierte Modelle implementieren.“

Sorgfältige Partnerwahl nötig

Unternehmen, die mit einem On-Premise-IT-as-a-Service-Ansatz liebäugeln, sollten darauf achten, dass ihr Partner möglichst auf langjährige Erfahrung verweisen kann, professionelle IT oder Rechenzentren für Kunden an deren Standort aufzubauen, zu pflegen und zu warten. Zudem sollte ein in Frage kommender Partner möglichst viele benötigte IT-Komponenten aus einer Hand, um die Komplexität der Management- und Administrationsprozesse hinsichtlich der Infrastruktur gering zu halten. Gleichzeitig sollte es aber auch möglich sein, nicht von dem gewählten Partner stammende Infrastrukturkomponenten in die Lösung einzubeziehen, wenn diese etwa bereits vorhanden sind und noch länger genutzt werden sollen.

Ausdrücklich erwünscht ist Erfahrung mit Kunden aus der Branche des Anwenders, denn jede Branche hat ihrer Eigenheiten, wenn es um Aufbau, Services und Nutzung der eigenen IT geht. Am besten ist es, wenn ein potentieller Anbieter auf passende Referenzen verweisen kann. Ein enges Netz von Partnern kann sich für den Anwender als nützlich erweisen – ist doch ein lokaler Partner im Zweifel immer am schnellsten vor Ort. Auch die bezüglich des eigenen Themas relevanten Aussagen renommierter Marktforschungsunternehmen kann man zu Rate ziehen. Auch vorhandene Zertifizierungen haben Aussagekraft. Besonders vorteilhaft ist es natürlich, wenn ein Unternehmen mit einem in Frage kommenden IT-as-a-service-Partner bereits positive Erfahrungen gesammelt hat.

HPE Pointnext, die Serviceorganisation von HPE, kann auf Tausende hochqualifizierte Mitarbeiter weltweit zurückgreifen, die tiefes Fachwissen und umfassende Praxis auf ihren jeweiligen Spezialgebieten aufweisen. Sie haben Erfahrungen bei der Umsetzung, bei Betrieb und Wartung professioneller IT-Lösungen bei Unternehmen aller Größen und Branchen gesammelt und entwickeln gemeinsam mit den Kunden individuelle, innovative Lösungen, auch wenn diese etwas ausgefallener sind als gern begangene und bekannte Wege.

Von der Hardware bis zum Support aus einem Guss: HPE GreenLake

Ein herausragendes Beispiel für die Realisierung eines IT-as-a-Service-Ansatzes für die on-premises-Realisierung ist das von HPEs Serviceorganisation HPE Pointnext entwickelte HPE-GreenLake-Portfolio. Dieses neuartige Erbringungsmodell für ergebnisorientierte IT-Nutzung zeichnet sich durch drei Merkmale aus: Die IT wird radikal vereinfacht, das Modell vereinigt das Beste aus Public Cloud und On-Premises-IT und die einzelnen Services des HPE GreenLake Portfolios orientieren sich an von den Anwendern angestrebten Ergebnissen. Diese Ergebnisse realisieren die einzelnen HPE GreenLake Lösungen mittels einer Kombination von Hardware, Software und Services vor Ort.

HPE GreenLake Lösungen sind so konzipiert, dass sie Anwendern einen vollständigen und vom Provider überwachten Service für den angestrebten Zweck bieten, der unter dem Dach des Kunden und unter seiner Kontrolle realisiert wird. Zum Lieferumfang gehören zunächst Beratung und professionelle Unterstützung, mit deren Hilfe sich der Bedarf schnell definieren, die nötigen Ressourcen bereitstellen und integrieren lassen. HPE gibt außerdem Empfehlungen dazu, wie sich Systeme und Prozesse weiter optimieren lassen. Zweckspezifische Referenzarchitekturen, die HPE bereithält, werden kundenspezifisch optimiert. HPE Pointnext übernimmt die Überwachung der GreenLake-Lösung aus dem Hintergrund und das Management der gesamten Umgebung. Zudem profitieren Anwender von einem Abonnement der digitalen Lernplattform HPE Digital Learning. Sie vermittelt die Fähigkeiten, die notwendig sind, um mit der jeweiligen Lösung zu arbeiten und optimalen Nutzen aus ihr zu ziehen. Die eigentlichen IT-Ressourcen, etwa Rechenpower oder Storage, stellt HPE im Rahmen des verbrauchsorientierten Modells HPE GreenLake Flex Capacity zur Verfügung. Abgerechnet werden HPE GreenLake-Services nach einer von HPE eigens für diesen Zweck entwickelten innovativen Metrik.

HPE GreenLake Backup: Backup-Komplettservice ohne Kapazitätsengpässe

Als Beispiel eines Service, der die Vorteile von HPE GreenLake besonders augenfällig demonstriert, sei HPE GreenLake Backup etwas ausführlicher beschrieben. Denn die Datensicherung stellt viele Anwender in professionellen Umgebungen mit raschem Datenwachstum zunehmend vor Probleme. Häufig werden große und schnell wachsende Kapazitäten benötigt, die sich möglicherweise nicht schnell beschaffen lassen. Der Backup-Prozess als solches ist kompliziert und fehleranfällig. Wird der Backup konventionell und intern bereitgestellt, bindet er erhebliche Personalressourcen und verlangt stetige und erhebliche Kapitalinvestitionen. Zudem trägt der Kunde allein das Risiko, dass seine Backups fehlerfrei erbracht werden.

Wird der Backup in der Public Cloud realisiert, entfallen zwar die Systemverantwortung und der Zwang, möglicherweise Überkapazitäten vorzuhalten, um stets alle Eventualitäten abzusichern. Gleichzeitig besteht aber das Risiko, dass das Zurückholen und Wiederherstellen von Daten aus der Public Cloud nach Störungen oder versehentlichem Löschen entweder sehr teuer ist, sehr lange dauert oder bei Problemen mit den Übermittlungsleitungen auch gerade im Bedarfsfall nicht funktioniert. Auf jeden Fall ist es erforderlich, die Preistabelle des Public-Cloud-Providers, bei dem die Daten gesichert werden sollen, sehr aufmerksam zu studieren. Denn sie lieben es zwar, wenn ihnen Daten überspielt werden und machen es daher einfach. Der Rückweg ist vielfach komplizierter und vor allem teurer. Auch die Kosten für sichere und ausreichend breite Anbindungen sind in die Gesamtkalkulation natürlich einzubeziehen, genau wie die nötigen Personalressourcen.

Mit HPE GreenLake Backup gibt es dazu eine Alternative. Es handelt sich um eine komplette Backup-Lösung, die beim Kunden realisiert wird – mit der gesamten nötigen Hardware, Software und den erforderlichen Services. Die erforderlichen Speicherkapazitäten werden beim Kunden installiert, aber nur abgerechnet, insofern sie verwendet werden. Die Abrechnung erfolgt also konsequent nutzungsorientiert. Dafür verwendet HPE eine spezielle, eigens für diesen Dienst entwickelte Metrik: HPE GreenLake Backup rechnet nicht die im Sicherungssystem gespeicherten Daten ab, sondern die zu sichernden Datenvolumina. Die Abrechnungseinheit sind sogenannte Front-End-Terabyte. Anwender müssen sich deswegen nicht mehr um Details im Backend wie etwa die Deduplizierungs- oder Kompressionsleistung der Sicherungsplattform kümmern. Front-End-Terabyte sind eine eindeutige und klare Basis für die monatliche Abrechnung. Backup-Kosten werden so kontrollierbar und lassen sich transparent prognostizieren.

Zum Lieferumfang dieser Rundumlösung für die Datensicherung gehören auch die Beratung hinsichtlich der vorhandenen Datensicherungsnotwendigkeiten, die Installation und Bereitstellung der Lösung, die Datenmigration, das Change-Management, professioneller reaktiver und proaktiver Support sowie der Betrieb der gesamten Lösung. Die Bereitstellung von Reservekapazitäten vor Ort, um Wachstumsschübe im Volumen der zu sichernden Daten proaktiv abzufangen, gehört ebenfalls zum Lösungsumfang.

Das nutzt auch dem Kerngeschäft, dessen Wachstum nun nicht mehr durch einen langen Beschaffungsprozess für zusätzliche Inhouse-Backup-Ressourcen gehemmt wird. Vielmehr richtet sich die Backup-Funktion nach den Bedürfnissen der Geschäftsprozesse und unterstützt daher das Kerngeschäft jedes Unternehmens optimal.

Das GreenLake-Portfolio

Doch das ist nicht der einzige GreenLake-Service, wobei alle Services als komplettes Paket inklusive Beratung, Betrieb und Wartung geliefert werden. HPE GreenLake Big Data, ein Service, der den gesamten Hadoop-Lebenszyklus abdeckt – inklusive Planung, Aufbau und Betrieb der Analytik-Lösung durch HPE PointNext. HPE GreenLake Edge Compute umfasst ergebnisorientierte Beratungsdienste, End-to-End-Design, die Überwachung und den Support einer umfassenden, kundenspezifischen Ende-zu-Ende-IoT-Lösung. Wer eine kostengünstige Alternative zu den klassischen Datenbanklösungen sucht, kann auf HPE GeenLake Database with EDB Postgres zurückgreifen. Das kann die Gesamtkosten einer Datenbanklösung um bis zu 70 Prozent reduzieren, wie sich bei internen Test bei HPE zeigte. Die Enterprise-taugliche Datenmanagementlösung basiert auf der Open-Source-Datenbank PostgresSQL.

Als erste Open-Source-Datenbankplattform verwaltet GreenLake Database with EDB Postgres strukturierte und unstrukturierte Daten gemeinsam. Mehrere Datenmodelle können parallel angewandt werden, bestehende Systeme lassen sich anbinden und die Plattform ist schnell in unterschiedlichen Umgebungen implementierbar. HPE GreenLake for SAP HANA erspart Nutzern dieser verbreiteten In-Memory-Analytik-Lösung für Echtzeitdaten die hohen Einstiegskosten bei konventioneller Beschaffung. Weiterer Vorteil: HPE übernimmt die komplette Verwaltung von SAP HANA, so dass sich Anwender auf die Beantwortung ihrer analytischen Fragen konzentrieren können statt auf Instandhaltung des dafür nötigen Werkzeugs.

Weiter gibt es innerhalb des GreenLake-Portfolios spezifische Infrastrukturbausteine wie Speicher, Container, HPC oder Microsoft-Azure-Stacks als flexible, nutzungsbasiert abgerechnete und on demand skalierbare Ressource (HPE GreenLake Flex Capacity). Sie können als Teil einer anwendungsorientierten Lösung oder unabhängig davon bereitgestellt werden. Zum Service gehören hier eine gemeinsam mit dem Kunden entwickelte Prognose der Kapazitätsentwicklung über die nächste Zeit und die Bereitstellung aktuell nicht genutzter Erweiterungsressourcen beim Anwender. Für sie zahlt der Kunde aber erst dann, wenn er sie tatsächlich verwendet. Eine HPE GreenLake Flex Capacity-Infrastruktur lässt sich bei Bedarf durch Betriebs- und Wartungsservices ergänzen.

Insgesamt beendet HPE GreenLake die Notwendigkeit kostenintensiver Beschaffungsmaßnahmen und ersetzt unkontrollierbare Wartungs- und Betriebskosten und die Überlastung des vorhandenen Personals mit Routineaufgaben durch ein transparentes, nutzungsbasiertes Kostenmodell: die Kosten atmen mit der tatsächlichen Verwendung einer Ressource. Die vorhandenen IT-Spezialisten können sich auf werthaltige Aufgaben konzentrieren. Die Betriebskosten orientieren sich bei HPE GreenLake an der tatsächlichen Nutzung und damit am Bedarf der Fachabteilungen. So wird die IT vom Kostenfaktor zum unentbehrlichen Werkzeug des Kerngeschäfts.

Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

4 Stunden ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

7 Stunden ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

2 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

3 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

3 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

4 Tagen ago