Categories: CloudCloud-Management

Die wichtigsten Cloud-Prognosen für 2017

Vielen Unternehmen haben in der Vergangenheit auf Open-Source-Infrastrukturen gesetzt und aus verschiedenen Bausteinen individuelle Lösungen geschneidert. Begonnen haben die meisten an weniger kritischen Bereichen. Durch eine zunehmende Reife von Cloud und Open Source rückt nun auch immer mehr die Verwaltung und vor allem Standardisierung von Kerngeschäften auf Open-Source-Infrastrukturen in den Fokus.

Scott Crenshaw, SVP Product and Strategy des Manged Cloud Providers Rackspace, glaubt, dass dieses Thema in den nächsten 10 Jahren die Agenda der CIOs bestimmen wird: “Da Unternehmen unterschiedliche Open-Source-Plattformen einsetzen, sehen sie sich mit zunehmend unüberwindbaren operativen Herausforderungen konfrontiert – alles muss effizient, sicher und zuverlässig zusammenarbeiten.” Laut Crenshaw stehen die Anwender vor einem neuen wichtigen Punkt. “Der Schwerpunkt liegt nicht mehr länger auf der Entwicklung von Software, sondern darauf, die Software erfolgreich zu nutzen. Damit steht uns eine neue Ära bevor, in der Operations die Vorherrschaft unter den größten Open-Source-Herausforderungen haben werden.”

Alex Pinchev, EVP und President of Global Sales and Marketing, sieht wachsenden Bedarf von Unternehmen nach Managed Cloud Anbietern. Jetzt will Rackspace mit einem neuen Rechenzentrum in Frankfurt vor allem Dienstleistungen rund um VMware anbieten. (Bild: M. Schindler)

“Wer agil reagieren will, braucht entsprechende Methoden, um Anwendungen zu erstellen”, bestätigt auch Matthias Pfützner, Solution Architect Cloud bei Red Hat. Zwar plane Red Hat nicht, in die Anwendungsentwicklung zu gehen, man wolle sich aber als Anbieter für die Bereitstellung von Tools positionieren. Red Hat investiere laut Pfützner auch intensiv in die Standardisierung von entsprechenden Tools um schnell neue Anwendungen und Infrastrukturen bereitstellen zu können.

Doch auch, wenn immer mehr Unternehmen immer mehr verschiedene Angebote nutzen, so reduziert sich doch die Zahl der Anbieter, wie die Marktbeobachter der Experton-Group feststellen:

Der Markt wird immer lichter und nicht nur technologisch anspruchsvoller, sondern auch finanziell umkämpfter. Lokale Anbieter schaffen es immer seltener mit den Hyperscaler-Riesen Stand zu halten”, so die Experten in einem Blog. Das sei auch der Grund für die Marktaustritte von Host Europe und HPE aus diesem Markt ausgetreten. Auch Verizon wolle hier nicht die finanziellen Risiken tragen. Experton geht aber davon aus, dass diese Marktbereinigung sich noch fortsetzen werde.

Mehr zum Thema

Wie man gefährliche E-Mails identifiziert

Gefälschte E-Mails enthalten häufig Viren oder andere Angreifer. Oft sollen auch private und sensible Daten gestohlen werden. Anhand weniger Kriterien lassen sich gefährliche E-Mails jedoch schnell erkennen.

Doch immer wieder schaffen es auch neue Player wie Cloud Sigma, Profitbricks oder die Deutsche Telekom in den IaaS Public Cloud-Markt einzusteigen.  Speziell die Deutsche Telekom habe es sich zum Ziel gesetzt den IaaS Pionier AWS preislich zu unterbieten und dabei auf Open Source zu setzen.

Die Experton Group identifiziert im deutschen Markt insgesamt 16 Unternehmen als relevante Anbieter für IaaS – Public Cloud. Davon konnten sich sieben Provider im Leader-Quadranten positionieren. Diese sind unter anderem AWS, Atos/CANOPY, Google, IBM Blumix, Microsoft Azure, T-Systems, Oracle und als Rising Star 1&1.

Expertons Einschätzung zu den in Deutschland verfügbaren IaaS-Angeboten. Laut den Marktbeobachtern werde es für kleinere Cloud-Provider zunehmend schwieriger, sich gegen ‘Hyperscaler’ à la AWS, Azure, Bluemix oder Google durchzusetzen. (Bild: Experton)

Kein Trend, sondern bereits Tatsache ist, dass Anwender verschiedene Angebote nutzen. Hybride- und Multi-Cloud sind inzwischen die Regel. “Cloud-Provider wie Rackspace, VMware und Microsoft ermöglichen nun die Nutzung mehrerer Cloud-Anbieter, um Hand in Hand mit verschiedenen Cloud-Implementierungen zu arbeiten”, erklärt Kaushik Balasubramanian, Sr. Director VMware bei Rackspace. “Diesen Trend der ‘Multi-Cloud’ sehe ich auch 2017 weiter wachsen. Diverse Clouds erfüllen verschiedene Bedürfnisse für unterschiedliche Unternehmen und wir merken, dass die meisten Unternehmen sich verschiedener Clouds über mehrere Regionen hinweg und für unterschiedliche Anwendungsfälle / Workloads bedienen werden.” Allerdings können sich hier in Legacy-Anwendungen kosten verstecken. Ältere Workloads aus einem Kundenrechenzentrum in eine Cloud zu verlagern, könne schnell unwirtschaftlich werden, warnt Balasubramanian.

“2017 wird das Jahr sein, in dem sich die Hybrid Cloud als die vorherrschend genutzte Cloud-Umgebung etablieren wird, mit entsprechenden Budgets für neue Infrastruktur. Organisationen, die viel Zeit und Ressourcen in ihre eigenen Rechenzentren investiert haben, werden diese natürlich nicht über Nacht abschaffen, die Hybrid Cloud hingegen erlaubt es, schrittweise den Weg in die Cloud zu gehen ohne Investitionen unnötig abzuschreiben”, kommentiert Paul Zeiter, President bei Zerto, einem Anbieter für virtuelle Replikationen.

Viele IT-Abteilungen waren bisher zögerlich sich weiter in die Cloud vorzuwagen, weil sie sich vor mehr Komplexität und Aufwand sorgten. Neue Technologien wie Hypervisor-basierte Replikation helfen dabei, mehr Dienste sicher, einfach und kostengünstig in die Cloud abzugeben.

Dabei werde auch OpenStack als API für das softwaredefinierte Rechenzentrum eine tragende Rolle übernehmen, davon ist Bryan Thompson, General Manager, OpenStack Private Cloud bei Rackspace überzeugt: “Das liegt unter anderem daran, dass die OpenStack-Community 2017 die 15. und 16. Hauptversion der integrierten Projekte (Ocata und Pike) liefert. Die Stärke von OpenStack ist weiterhin die API – ein Standard-Interface, dass es Benutzern und Systemen erlaubt mit allen Arten von Infrastrukturen zusammenzuarbeiten – einschließlich Computer-, Netzwerk-, Speicher- und anderen Fabric-Services.” Und dann erhofft sich Thompson, einen Schneeballeffekt unter Anwendern.

“Eine serverlose Datenverarbeitung erleichtert das Leben der Entwickler”, so John Engates, Chief Technology Officer bei Rackspace. Hier könnte 2017 einen Wendepunkt bringen. “Serverlos ist natürlich eine falsche Bezeichnung. Es wird immer Server geben. Eine serverlose Architektur bezieht sich auf Anwendungen, die von Drittanbieterservices abhängig sind (Backend-as-a-Service) oder von benutzerdefinierten Codes (Function-as-a-Service) – AWS Lambda ist heute der beliebteste Host-Anbieter.” Serverlos bedeute in diesem Zusammenhang, dass sich Entwickler sich nicht mehr um die Infrastruktur kümmern müssen. Vor allem für den Bereich des Internet der Dinge werden solche Infrastrukturen ein hohe Bedeutung haben, schließt Engates.

Anwendungen, die für Microsoft Azure geschrieben wurden, sollen über Azure Stack auch innerhalb des eigenen Rechenzentrums betrieben werden können. (Bild: Microsoft)

Mit der allgemeinen Verfügbarkeit von Microsoft Azure Stack werde die Microsoft-Technologie noch weiter an Bedeutung gewinnen. Jeff DeVerter, CTO of Microsoft Technologies bei Rackspace: “Da die Gürtel in allen IT-Organisationen enger geschnallt werden und tiefgreifende IT-Kompetenzen knapp sind, werden IT-Organisationen die Gelegenheit nutzen, Azure – öffentlich und privat – als Plattform der Wahl zu standardisieren. Da der Azure Stack-Code in erster Linie aus der gleichen Codebasis wie Azure stammt, werden Unternehmen in der Lage sein, ihre eigenen APIs und nativen Azure-Funktionen für ihre privaten Cloud-Anforderungen zu standardisieren. Diese beiden Produkte werden IT-Organisationen ein nie dagewesenes Maß an Effizienz und Leistungsfähigkeit bringen.”

Von neuen Impulsen für den Markt durch Azure Stack geht auch Jörg Mecke, Division Manager Business Productivity der Fritz & Macziol, künftig Axians IT Solutions, aus, wie er im Gespräch mit silicon.de erklärt. Allerdings schränkt er ein, dass die Entwicklung wohl deutlich komplexer ausfällt und sich Anwender hier wohl noch eine Weile gedulden müssen.

Ausgewähltes Whitepaper

Fünf wichtige Aspekte bei der Auswahl eines Wide Area Networks

Erfolgreiches Netz-Design kann die Produktivität deutlich verbessern und neue Chancen für die digitale Geschäftsentwicklung eröffnen. Ein unzureichend dimensioniertes WAN hemmt dagegen das produktive Arbeiten und führt zu Frustration bei Mitarbeitern, Lieferanten und Kunden. In diesem Whitepaper erfahren Sie, worauf es zu achten gilt.

Redaktion

Recent Posts

Studie: Rund ein Drittel der APIs sind ungeschützt

Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…

3 Tagen ago

Universitätsmedizin Essen setzt für E-Mail-Sicherheit auf NoSpamProxy

Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…

3 Tagen ago

Bau-Spezialist Schöck: Migration von SAP ECC ERP auf S/4HANA

Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…

5 Tagen ago

Pure Storage: Cloud, KI und Energieeffizienz

Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…

6 Tagen ago

GenKI verbessert Datenmanagement und Angebotsgenauigkeit

DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).

1 Woche ago

Rolls-Royce Power Systems nutzt industrielle KI aus der IFS Cloud​

Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.

1 Woche ago