Vor allem nach dem abrupten Ende von Safe Harbor werden Unternehmen wieder verstärkt auf die Private Cloud setzen. Doch auch im Bereich Open Source ist nicht alles so offen, wie manche Hersteller das gerne vermitteln wollen, warnt Sebastian Weiss von dem OpenStack-Spezialisten Mirantis.
Der Europäische Gerichtshof hat das Safe-Harbour-Abkommen für nichtig erklärt, weil in den USA der Datenschutz nicht gewährleistet ist. Das “Wall Street Journal” sah daraufhin US-amerikanischen IT-Anbietern “Milliarden Dollar” entgehen, und damit waren nicht nur Werbeeinnahmen von Social-Media-Plattformen gemeint, sondern auch Cloud-Anbieter.
Diesen ist mit dem Urteil der werbewirksame Begriff Safe Harbour abhanden gekommen. Das dürfte europäische Unternehmen geradezu animieren, das Kleingedruckte, die Geschäftsbedingungen genauer zu studieren.
Nicht weil Juristen-Englisch eine Zumutung ist, sondern weil die Interessenten aus Business-Kreisen verunsichert sind, werden Europa und insbesondere Deutschland noch reservierter als bisher schon dem Cloud Computing gegenüber stehen. Die Skepsis gilt nicht generell dem Trend, sondern dem Cloud Computing, das in den USA stattfindet. Und das ist nach Lage der Dinge Public Cloud Computing, wie es Amazon, Google, Microsoft etc. anbieten.
Dabei haben europäische Unternehmen längst verstanden, welche Vorteile Cloud Computing bieten kann. Jedoch werden nach den Enthüllungen von Edward Snowden und dem EuGH-Urteil hiesige Anwenderunternehmen deutlicher denn je in Richtung Private Cloud tendieren. Das heißt eine Cloud mit eigenen Mitteln, unter eigener Regie, mit Rechenzentren auf deutschem Boden und ergo nach deutschem Recht.
Zu dieser Intention kommt ein weiterer Faktor: Deutsche Unternehmen haben meist schon ein gutes Dutzend Jahre Praxiserfahrungen mit Open Source. Sie wissen nicht nur von den Lizenzkostenvorteilen, sondern ihre IT-Mitarbeiter kennen sich aus mit den in solchen Umgebungen üblichen offenen Standards und Schnittstellen. Es wird immer deutlicher, dass diese beiden letzten Faktoren besonders wichtig sind, um die eigene IT für künftige Entwicklungen offen zu halten, also flexibel zu machen.
Das Interesse an Private Clouds trifft mit dem an Open Source zusammen. Sobald man diese zwei Begriffe in den Raum wirft, kommt sogleich ein Echo zurück: OpenStack!
Das rasant wachsende Interesse an OpenStack ist der Verbindung von Private Cloud und Open Source geschuldet (und Edward Snowden, wenn man so will). Allerdings ist zu empfehlen, die vom Safe-Harbour-Debakel rührende Skepsis, ob das drin ist, was drauf steht, ebenfalls gegenüber OpenStack zu haben.
Der Begriff “Open” droht ausgehöhlt zu werden. Auch bei OpenStack verfolgen einige Anbieter eine Produktorientierung, um deren bestehendes Portfolio zu beschützen, die den Anwendern weniger Offenheit zubilligt. Wer seine Open-Stack-Cloud mit Red Hat implementieren will, braucht von deren Enterprise Linux aufwärts die ganze Latte der Produkte mit dem roten Hut.
Fremdprodukte sind unerwünscht, “not supportet”. Das ergibt dann eine nette Rechnung für “Support”-Kosten. Ähnlich schaut es bei SUSE aus. Noch toller ist es bei HP, die sich sehr für OpenStack und Open Source engagiert: Da muss es auch noch HP-Hardware sein.
Was ist da der Unterschied zu Abhängigkeiten, die vor mehr als 25 Jahren für die Mainframe-Ära und die Unix-Jahre der 90er kennzeichnend waren? Selbst Firmen, die sich als Urahnen des Open-Source-Trends begreifen, streben bei OpenStack ein ähnliches Lock-in an, wie sie es proprietären Cloud-Anbietern oder traditionellen Softwareherstellern, wie Oracle und VMware gern vorwerfen.
Die an OpenStack Interessierten sollten bei den sich anbietenden Implementierungspartnern schon genau nachhaken, welche Voraussetzungen sie verlangen. Das Folgende ist mehr als eine Kostenrechnung, sondern die Entscheidung über Unabhängigkeit und der Innovationsfähigkeit oder nicht.