silicon.de: Hallo Herr Abolhassan, ich war ja selbst bereits Gast in einem Rechenzentrum von T-Systems und das gleicht einem Hochsicherheitstrakt. Warum ist nach wie vor dennoch die Skepsis der Anwender-Unternehmen gerade in der Sicherheits-Frage so hoch verbreitet?

Abolhassan: Infrastrukturen oder sensible Unternehmensdaten in die Hände Dritter zu geben, erfordert grundsätzlich viel Vertrauen. Und Vorsicht walten zu lassen ist gut. Bei der Auslagerung von IT-Systemen oder -Anwendungen speichern die meisten Unternehmen schließlich nicht nur ihre eigenen Daten in einem externen Rechenzentrum, sondern auch die der Kunden. Dieser Schritt sollte daher gut durchdacht sein. Unternehmen müssen sichergehen, dass sie rechtliche Vorgaben einhalten und Infrastrukturen jederzeit verfügbar sind. Eine Partnerschaft hat nur dann Aussicht auf Erfolg, wenn Kunde und Provider von Anfang an ausführlich über alle Prozesse sprechen und alle Bedenken im Vorfeld aus dem Weg räumen.

silicon.de: Würden Sie so weit gehen, einer Studie der Experton-Group zuzustimmen, die das Thema Sicherheit beim Cloud-Computing gerade als Pro-Argument für die Cloud sehen?

Abolhassan:Ja, zu 100 Prozent. Die Cloud bedeutet mehr Sicherheit, nicht weniger. Welches Kleinunternehmen oder welcher Mittelständler kann in redundant ausgelegte Systeme investieren? Gibt es an einem Server einen größeren Schaden – zum Beispiel durch einen Kurzschluss – gehen ohne Zwillingssystem schnell wichtige Daten verloren oder ein längerer Ausfall ist vorprogrammiert bis alles aus einem Backup wiederhergestellt ist. Bei gespiegelten Systemen übernimmt beim Absturz eines Systems sofort das Pendant. Ein Anbieter ist auch besser auf Angriffe aus dem Netz vorbereitet, verfügt über mehr Spezialisten und unterliegt strengen Audits – gerade beim Thema Sicherheit.

Dr. Ferri Abolhassan, T-Systems International. Quelle: T-Systems

silicon.de: Die Daten sicher in einem abgeschotteten Rechenzentrum zu halten ist die eine Sache, doch irgendwie müssen diese ja auch dorthin und auch wieder zum Anwender zurück. Wie kann der Provider denn hier die Sicherheit gewährleisten?

Abolhassan: Es gibt unterschiedliche Varianten, die Informationen während der Übertragung abzusichern. Greift das Unternehmen über ein unternehmenseigenes Netzwerk auf die Cloud zu, ist ein Gateway nötig. Den notwendigen Schutz leisten Firewalls und Intrusion-Prevention-Systeme. Außerdem erhalten nur autorisierte Computer Zugriff auf die Cloud-Services.

Erfolgt der Cloud-Zugriff des Unternehmens über ein öffentliches Netz wie dem Internet, sollte dies ausschließlich verschlüsselt erfolgen – beispielsweise mittels einer Public-Key-Infrastruktur. Eine weitere Methode der sicheren Datenübertragung ist das MPLS-Netz, das Datenströme getrennt voneinander innerhalb eigener VPNs überträgt und sich zusätzlich über Sicherheitsprotokolle wie IPSec abschirmen lässt.

silicon.de: Welche rechtlichen Bestimmungen gelten denn hier? Für die Nutzung von Cloud-Diensten, etwa zusammen mit personenbezogenen Daten, schreibt der Gesetzgeber ja sehr genau definierte Regeln vor.

Abolhassan:Unternehmen sind an die jeweilige Gesetzgebung ihres Landes gebunden, das gilt auch für Datenschutz und personenbezogene Daten. In Deutschland dürfen beispielsweise personenbezogene Daten von Behörden nicht über Landesgrenzen gehen. Bei vielen Cloud-Angeboten steht das Rechenzentrum aber irgendwo im Ausland. Unternehmen hierzulande sind außerdem gesetzlich verpflichtet, Finanzämtern den Zugriff auf steuerrelevante Daten zu gewähren. Das setzt voraus, dass jederzeit bekannt sein muss, wo sich welche Daten befinden. Wir geben als Cloud-Provider den Unternehmen die Wahlfreiheit. Sie entscheiden, wo ihre Daten gespeichert sein sollen. Gleichzeitig tragen wir mit unseren Lösungen dafür Sorge, dass sie rechtssicher sind.

silicon.de: Kommen wir zur wirtschaftlichen Betrachtung. Einerseits entfallen beim Cloud-Betrieb ja hohe Anfangsinvestitionen. Doch trifft es Ihrer Ansicht nach immer noch zu, dass über einen längeren Betriebszeitraum hinweg On-Premise-Anwendungen auf Dauer doch günstiger kommen?

Abolhassan: Ein großer Vorteil der Cloud-Lösung ist die Möglichkeit der bedarfsgerechten Abrechnungsmodelle. Der Kunde zahlt nur für die Lösungen und Infrastrukturen, die er tatsächlich benötigt und nutzt. On-Premise ist hingegen starr und nicht skalierbar, was die Amortisierung einer solchen Lösung schwer vorhersagen lässt. Außerdem geht es nicht nur darum, eine Software dynamisch zu halten, sondern auch um die entsprechenden Hardwarekomponenten. Ebenso gilt es auch bei On-Premise-Lösungen, Zugriffe von außen abzuschirmen. Die Cloud erlaubt die sichere Komplettlösung aus einer Hand.

silicon.de: Nicht für jedes Unternehmen und sicherlich auch nicht jede Anwendung lässt sich mittelfristig wirtschaftlich sinnvoll in die Cloud auslagern. Spannend ist daher für die meisten Anwender eine hybride Umgebung, in der Cloud und On-Premises gemeinsam arbeiten. Sehen sie denn an diesen Schnittstellen häufig Probleme?

Abolhassan: Auch wenn die Cloud einem Unternehmen mehr Flexibilität und Sicherheit bietet: Es gibt Fälle, bei denen es sinnvoll ist, bereits implementierte Lösungen wie ein Warenwirtschaftssystem weiterhin On-Premise zu betreiben, weil es in der ursprünglichen Form nicht cloud-fähig ist. Hier ist die Expertise des Providers gefragt. Provider wie T-Systems analysieren laufend Infrastrukturen und Anwendungen und geben dem Kunden Empfehlungen, wenn zum Beispiel eine “alte” Anwendung reif ist, um für die Cloud fit gemacht zu werden.

Zudem gibt es Lösungen wie die JetCloud, mit der wir in Österreich bereits eine Plattform im Einsatz haben, bei der Kunden ihre Software selbst managen, diese allerdings aus der Cloud von T-Systems beziehen. Der Kunde kann die Infrastruktur selbstständig über den PC oder ein Smartphone erweitern und reduzieren. Die Systeme werden anschließend automatisch hinzu- oder abgeschaltet. Dabei profitiert das Unternehmen von den Vorteilen der Hochsicherheitszentren.

silicon.de: Der Charme für viele Anwender eine Cloud-Anwendung zu nutzen, liegt ja häufig auch darin, dass sich Cloud-Ressourcen schnell und flexibel zuschalten lassen. Damit können Unternehmen schnell auf neue Anforderungen wie zum Beispiel Big Data reagieren.

Abolhassan:Das ist richtig. Die Cloud ebnet überhaupt erst den Weg für Big-Data-Anwendungen. Mit diesen Technologien lassen sich große Mengen an Daten in Sekundenschnelle analysieren und auswerten – dank flexibler Infrastrukturen aus der Cloud. Big Data eröffnet völlig neue Möglichkeiten: Ein gutes Beispiel ist das vernetzte Fahrzeug, das online direkt mit Hersteller oder Werkstatt kommuniziert. Die Technik in einem solchen Wagen erfasst Diagnose- oder Sensordaten und ermittelt frühzeitig einen notwendigen Werkstattbesuch oder warnt den Fahrer vor Baustellen, Glatteis und Gefahren. Das Fahrzeug sowie die Werkstätten und Partner sind über die Cloud miteinander verbunden. Die dadurch gewonnenen Informationen werden zusätzlich an die Produktion weitergegeben.

So erkennen die Entwickler fehleranfällige Bauteile und können sie verbessern. In einigen Jahren ermöglichen Cloud und Big Data neue Mehrwertdienste im Auto, an die wir heute noch nicht einmal denken. Auf der Autobahn sieht der Fahrer, wo er am billigsten tanken kann, wo es bei Wintereinbruch Sonderangebote für Schneeketten gibt oder wo er in der Stadt freie Parkplätze findet oder gar reservieren kann.

silicon.de: Allerdings sehe ich gerade für einen Provider wie T-Systems hier große Probleme. Denn die Bereitstellung von Infrastruktur und entsprechenden Schnittstellen muss – um es als Anbieter wirtschaftlich anbieten zu können – hochgradig standardisiert sein. Viele Unternehmen aber nutzen eigene Entwicklungen oder stark angepasste Lösungen, wie kann da ein Schuh draus werden?

Abolhassan: Wirtschaftlichkeit und Flexibilität gibt es langfristig nur mit standardisierten und automatisierten Prozessen. Wir stellen Leistungen schon länger automatisiert bereit, bauen unsere Services in Sachen Cloud kontinuierlich aus und setzen beispielsweise auf Self-Service-Portale. Das ermöglicht zum einen effizientere Prozesse innerhalb von T-Systems und gleichzeitig deutlich kürzere Implementierungszeiten für den Kunden. Ganz ohne Eigenentwicklung geht es aber auch nicht. Wir arbeiten sehr eng mit unseren Kunden und Partnern zusammen und schaffen so individuelle Lösung für spezifische Anforderungen.

Solche Projekte helfen uns zudem, bei zukünftigen Anfragen die individuellen Erfahrungen in standardisierte Prozesse zu gießen. Diese Form der Industrialisierung von IT-Services ist ein unausweichlicher Prozess, um als Provider am Markt zu bestehen. So definieren wir für den Kunden einen sinnvollen Weg zwischen Standards und Individualität und agieren sowohl im Sinne der Kunden als auch aus Provider-Sicht wirtschaftlich.

silicon.de: Bleiben wir in der Welt der Businessanwendungen, mit dem HANA-Support für die Business-Suite hat SAP ja sozusagen In-Memory als Standard gesetzt und in den nächsten Monaten werden immer mehr Unternehmen diese Technologie nutzen. Aus meiner Perspektive heraus aber würde ich sagen, dass sich In-Memory und die Cloud gegenseitig ausschließen. Denn wenn ich die Daten über eine Leitung in ein T-Systems-Rechenzentrum schicke, habe ich ja genau die Latenzen, die ich eigentlich zu umgehen hoffe.

Abolhassan: Wir bieten In-Memory-Technologien in standardisierter und integrierter Form an – optimal abgestimmt auf die Voraussetzungen der Cloud. Denn ein häufiges Argument gegen In-Memory im eigenen Unternehmen sind hohe Lizenz- und Hardwarekosten. Als Cloud-Variante profitieren Unternehmen hingegen von den gängigen Vorteilen der Wolke und können die Ressourcen ganz nach dem jeweiligen Bedarf nutzen. T-Systems hat kürzlich mit der Developer Edition for SAP HANA eine gleichermaßen wirtschaftliche wie leistungsfähige Lösung vorgestellt. Third-Party-Lösungen erlauben über optimierte Nearline-Storage-Lösungen die Verarbeitung großer Datenmengen in enormer Geschwindigkeit. Der Vorteil im Zusammenspiel mit HANA liegt dabei in einer kostenoptimierten Gesamtlösung – abhängig vom Zugriffsbedarf auf verfügbare Daten und ohne entscheidende Performanceverluste. Denn: Die Verarbeitung der Daten selbst findet im Rechenzentrum innerhalb der Cloud statt. Übertragen werden lediglich die Anfrage sowie die Ergebnisse aus der Analyse – nicht jedoch die Datenmenge.

silicon.de: Das macht Sinn! Abgesehen von der Cloud-Einbindung von HANA welche Entwicklungen erwarten Sie denn mit der In-Memory-Technologie in transaktionalen Systemen?

Abolhassan: In-Memory ermöglicht die Konvergenz von analytischen und transaktionalen Prozessen. Damit werden Entscheidungen und Prozesssteuerungen beschleunigt. Anwender sind in der Lage, interaktiv und ad hoc Berichte zu generieren und daraus Entscheidungen abzuleiten. Das verändert die Geschäftsprozesse enorm. So kann ein Einkäufer beispielsweise bei Verhandlungen mit Zulieferern nicht nur die historischen Daten, Lieferqualität und Termintreue in Echtzeit aus der SAP Business Suite abrufen. Gleichzeitig kann er auch den zukünftigen Bedarf, offene Bestellungen und weitere Parameter einbeziehen. Damit wird es erstmals möglich, Logistik- oder Dienstleistungsprozesse wie Maintenance Management in unterschiedlichen Szenarien auszurechnen und die optimale Lösung auszuwählen.

Zukünftig agieren Unternehmen also mehr und mehr faktenbasiert: Ein Manager ruft heute innerhalb kürzester Zeit wertvolle Informationen ab – beispielsweise die Absatzzahlen eines Produkts in einer bestimmten Region. Diese Zahlen wertet er aus, um daraus Maßnahmen abzuleiten. Zum einen, um die Prozesse im eigenen Unternehmen zu optimieren, zum anderen, um den Kundenwünschen besser Rechnung zu tragen. Hat dieses Wissen zuvor viel Zeit erfordert und war nur über die Fachabteilungen abrufbar, befähigt das Big Data-Zeitalter, mit den richtigen Technologien einen Schritt voraus zu sein.

silicon.de: Herr Abolhassan, wir danken für das Gespräch

Redaktion

Recent Posts

IT 2025: IT-Führungskräfte erwarten massiven KI-Ruck

Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.

2 Tagen ago

Sofortzahlungen im Wandel: Sicherheit und KI als treibende Kräfte

Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…

2 Tagen ago

Blockaden und Risiken bei APM-Projekten vermeiden

Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.

4 Tagen ago

BSI-Bericht: Sicherheitslage im Cyberraum bleibt angespannt

Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.

5 Tagen ago

KI-Hype in der Cybersicherheit – oder besser doch nicht?

KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…

5 Tagen ago

Netzwerksegementierung schützt vor Angriffen über die OT

Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…

6 Tagen ago