Hohe Verfügbarkeit und einfache Skalierung, das sind, wie Robert Romanski von dem Backup und Desaster-Recovery-Spezialisten Commvault die Versprechen von Hyperskale-Architekturen, wie er in seinem ersten silicon.de-Blog darlegt.
Im Zuge der branchenübergreifenden Digitalisierung werden jeden Tag in Millionen Rechenzentren weltweit unvorstellbar große Datenmengen verarbeitet: IDC schätzt, dass die digitalen Interaktionen in den nächsten zehn Jahren um mehr als den Faktor 20 zunehmen werden. Die Menschen surfen im Internet, sie streamen und telefonieren über das Mobilfunk- und Festnetz, vernetzen Smart-Home, Gadgets, Fahrzeuge und Fitness-Tracker. Den größten Anteil werden aber Daten in Unternehmen haben, sei es aus dem ERP oder bei der Machine-to-Machine-Kommunikation. Diese Interaktionen werden zudem immer stärker automatisiert, was Daten für unseren Alltag unentbehrlich macht. Die weltweitern Rechner- und Server-Infrastrukturen müssen mit dieser Entwicklung Schritt halten.
Aufgrund ihrer Expertise bei der Auswertung gigantischer Datenmengen gaben bislang Internetgiganten wie Amazon, Facebook und Google das Tempo vor – mit Hyperscale-Computing: Diese Scale-out-Rechenzentrums-Architektur ermöglicht es, extrem große Datenmengen auf tausende von Servern aufzuteilen, und bietet dabei noch eine höhere Ausfallsicherheit als herkömmliche Technologien.
Vom Silicon Valley zum deutschen KMU
Die größten Hürden für den Einsatz von Hyperscale in mittelständischen Unternehmen stellten bislang die mangelnde Kompatibilität mit bestehenden Infrastrukturen sowie die mit der Umstellung verbundenen Kosten dar. Mittlerweile lässt sich aber das Datenmanagement, über den gesamten Lebenszyklus hinweg, in einer einzigen Plattform im Rechenzentrum sowie in der Cloud verwirklichen. Die Umstellung basiert auf Referenzarchitekturen und ist daher denkbar einfach umsetzbar. So verwundert es nicht, dass der Markt für hyperkonvergente Infrastrukturen bis 2022 einen Wert von 12,6 Milliarden USD erreichen wird, wie das Marktforschungsinstitut MarketsandMarkets 2016 ermittelte.
Für die befragten Unternehmen waren die folgenden Kriterien ausschlaggebend:
- Kosten/Rendite (55 %)
- Hochverfügbarkeits-Features (44 %)
- Einfache Skalierung von Kapazität und Leistung (43 %)
- Unterstützung für integrierte Backups und Replikation (25 %)
- Management über eine allgemeine Schnittstelle (24 %)
Scale-out für Sekundärspeicher
Immer mehr Unternehmen verlagern die Speicherung ihrer Daten vom Primärspeicher hin zum Sekundärspeicher. Der Sekundärspeicher – der externe Speicher des Computers – punktet vor allem für die dauerhafte Speicherung von Daten mit einer höheren Kapazität, ist aber zunächst verhältnismäßig langsam. Die primären, aktiv genutzten Daten machen gerade einmal 25 bis 30 Prozent der Daten aus. Der Rest sind beispielsweise Sicherungskopien. Hyperscale ermöglicht es, auch die nicht aktiven Daten zu nutzen. Wofür ist der Zugriff darauf nötig? Ein Einsatzgebiet ist Business-Intelligence: Wenn 100 Prozent der Daten zur Verfügung stehen, lassen sich geschäftsrelevante Informationen besser analysieren. Ein zweites Einsatzgebiet ist die Einhaltung von Compliance. Die EU-Datenschutzgrundverordnung etwa fordert – vereinfacht gesagt – alle personenbezogenen Daten auf Knopfdruck herausgeben, ändern oder löschen zu können, während gleichzeitig gesetzliche Aufbewahrungspflichten berücksichtigt bleiben. Drittens wird die Wiederherstellung nach einem Datenverlust beschleunigt.
Report: State of Digital Transformation EMEA 2019
Zu den größten Hürden der digitalen Transformation zählen der mobile Zugriff auf Unternehmensdaten und Anwendungen, die Nutzung unsicherer Netzwerke und nicht verwalteter Geräte. Das geht aus dem Report „State of Digital Transformation EMEA 2019“ von Zscaler hervor. Jetzt den vollständigen Report herunterladen!
Außerdem können Unternehmen stärker die Cloud und Cloud-ähnliche Services on-premises nutzen. Alle Aufgaben, die in einer herkömmlichen Scale-up-Architektur für Datensicherung von separaten Servern durchgeführt werden, werden im Scale-out-Ansatz konsolidiert und in einem einzelnen softwaredefinierten Stack zentralisiert. Hier umfasst die Software mehrere Speicherknoten, die auf allgemeinen Servern ausgeführt werden, und erstellt einen adressierbaren Speicherpool mit integrierten Datenmanagement-Funktionen auf Unternehmensniveau. Somit werden keine dedizierten Medienserver, keine proprietären Controller-basierten Speichergeräte und keine Cloud-Gateways mehr benötigt. Das senkt die Infrastrukturkosten und verschafft Cloud-ähnliche wirtschaftliche und betriebliche Vorteile. Mittelständische Unternehmen können mittlerweile aus unterschiedlichen Angeboten wählen, um ältere Backup-Tools durch eine moderne Cloud-fähige Datenmanagement-Lösung zu ersetzen, die die Komplexität sowie Kosten reduziert, etwa eine „All in one“-Appliance oder ein Referenzarchitektur-Modell.
Unterm Strich
Firmen suchen nach Alternativen, die es ihnen ermöglichen, die zunehmenden Datenmengen effektiv zu speichern und zu verwalten. Während der vertikalen Skalierung Grenzen gesetzt sind, da sich Rechner nicht endlos mit Hardware aufrüsten lassen, ist das Potential von horizontaler Skalierung schier unendlich, weil keine zusätzliche Appliance nötig ist. Dadurch bietet Hyperscale Unternehmen eine Alternative, ihr Business erfolgreich und wettbewerbsfähig zu digitalisieren.
So lassen sich Risiken bei der Planung eines SAP S/4HANA-Projektes vermeiden
Ziel dieses Ratgebers ist es, SAP-Nutzern, die sich mit SAP S/4HANA auseinandersetzen, Denkanstöße zu liefern, wie sie Projektrisiken bei der Planung Ihres SAP S/4HANA-Projektes vermeiden können.