Im Jahr 2010 habe die Branche das Thema Cloud Computing hochgejubelt, sagte Andreas Zilch, Vorstand der Experton Group. Jetzt solle man das Pendel nicht in die Gegenrichtung ausschlagen lassen und die Cloud kleinreden. “Lassen Sie uns das Thema realistisch diskutieren.” Cloud Computing mache derzeit ein Prozent des gesamten deutschen IT-Marktes aus – im Jahr 2015 dürften es jedoch neun Prozent sein. Die Cloud stelle einen Paradigmenwechsel dar, der mit dem Umstieg auf die Client-Server-Architektur vergleichbar sei.
In Vorbereitung auf die Münchner Diskussion habe er 85 Definitionen von Cloud Computing gefunden, so Jan Wildeboer, Open Source Evangelist EMEA bei Red Hat. 42 Unternehmen bezeichneten sich als Cloud-Computing-Anbieter. Zehn Prozent der Server-Ressourcen, die online seien, arbeiteten für Google – damit sei Google heute eigentlich der größte Cloud-Anbieter.
Cloud Computing sei der erste große Markt, der mit offenen Standards starte, sagte Wildeboer. Das sei neu und das berechtige zu Hoffnungen. So baue das Open-Source-Projekt Eucalyptus auf Amazon-APIs auf. 80 Prozent der Anbieter von Cloud-Diensten verwendeten darunter Linux und andere Open Source Software. Im Moment drohe die Gefahr, dass große “Cloud-Silos” geschaffen werden. Die Cloud-Computing-Kunden müssten jedoch “ihre Workloads nehmen und einfach von einem Anbieter zum nächsten wechseln können”. Derzeit werde an Standards für das Cloud Computing gearbeitet. Den einen großen Cloud-Computing-Standard werde es freilich nicht geben.
“Wir wären heute schon weiter, wenn die Unternehmen die existierenden Standards beachten würden”, sagte Zilch. So merkten die Unternehmen bei Cloud-Projekten auf einmal, dass ihre eigene Software nicht den aktuellen Standards entspreche und nicht “Cloud-ready” sei. Vielfach liefen noch veraltete Systeme. Der Cloud-Anbieter könne diese Altsysteme jedoch nicht aktualisieren. Dafür habe er keine Spezialisten. Das entspreche auch gar nicht seinem Geschäftsmodell – wolle er doch günstig anbieten.
Laut Zilch hat Cloud Computing drei Vorteile. Es spart Prozesskosten, steigert die Qualität und erhöht die Flexibilität. “Das ist der Hauptvorteil der Cloud, der sich in einer schnelleren Time-to-Market bemerkbar macht.” Cloud Computing werde in viele Unternehmen bereits eingesetzt, ohne dass der CIO davon wüsste. So etwa in der Applikationsentwicklung. “Da geht der Entwickler zu seinem Team-Chef und sagt, er brauche eine Test-Umgebung.” Diese Test-Umgebung werde dann bei Amazon geordert.
Derzeit gelte Cloud Computing als der heilige Gral, sagte Dr. Dieter Schramm, Head of Infrastructure Consulting Central Europe von Dell. Wichtig sei es jedoch, die damit verbundenen Methoden, Prozesse und Technologien zu verstehen. In Sachen Cloud im Unternehmen müssten offene Fragen gelöst werden. So sollten die Entwickler auf den Cloud-Computing-Zug aufspringen. Zudem gelte es, strukturierte Entscheidungswege für den Cloud-Computing-Einsatz im Unternehmen zu finden.
Aus dem Publikum wurde gefragt, ob sich die Frage einer Cloud-Einführung überhaupt stelle, wo doch gelte: Never change a running system. “Doch, diese Frage stellt sich spätestens dann, wenn Sie entscheiden müssen, 5 Millionen Euro für einen neuen Server auszugeben oder nicht”, sagte Schramm.
Die Unternehmen ständen unter dem Zwang, IT-Kosten zu sparen, erklärte Wildeboer. Cloud Computing werde hier als Heilsversprechen betrachtet. Er habe gar nichts gegen steigende IT-Kosten, merkte Zilch an. Die IT-Kosten würden auch künftig wachsen. Cloud Computing sollte vielmehr als Mittel verstanden werden, um die Prozesskosten, genauer gesagt, die Prozess-Stückkosten, zu senken.
In den Unternehmen werde die Idee des Cloud Computing unterschiedlich aufgenommen, betonte Mario Hoffmann, Forschungsbereichsleiter am Fraunhofer-Institut für Sichere Informationstechnologie SIT. Informatiker blieben eher nüchtern, seien die Technologien hinter dem Cloud Computing doch längst bekannt. Leuchtende Augen gebe es dagegen bei den Wirtschaftsinformatikern. Diese richteten den Blick auf die Geschäftsmodelle, die Cloud Computing ermögliche. Wenn man eine gute Geschäftsidee habe, könne man “praktisch an einem Wochenende loslegen” und sich die benötigten Services online zusammenstellen.
Die kleinen Unternehmen preschten hier vor, sagte Wildeboer. Die großen Unternehmen hätten hochkomplexe Systeme, die fast schon nicht mehr ersetzbar seien. Die Kleinen lebten jedoch nach dem Motto “Das ist gut genug”. Das sei das Motto, nach dem künftig die gesamte IT agieren werde.
Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…
Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…
Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…
KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.
Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.
View Comments
Ist die Cloud gut genug?
Liebe Leserinnen und Leser, ja die Cloud ist gut genug wenn sie die geforderten und notwendigen Leistungen liefern kann und hier würde ich vorschlagen, dass keine "Pauschalmodelle" angesetzt werden, sondern eine ordentliche Anforderungsanalyse vorgeschaltet wird. Sonst geht das Cloud-Projekt baden, so wie jedes andere Projekt baden geht, wenn vorher nicht die entsprechenden Überlegungen und Diskussionen stattgefunden haben. Auch sollten wir nicht die Zielsetzung der Geschäftsprozesse, die durch die Anwendung abgebildet werden, vergessen. Denn wenn in kritischen Prozessen Sand ins Getriebe kommt ist ganz schnell sehr viel Geld verbraten und die Wolke löst sich auf. Aus dem "das ist gut genug" muss werden "den Anforderungen entsprechen".
Gruß D. Schmidt