Grundlage einer modernen, hybriden Unternehmens-IT sollte ein belastbares Datenmanagement sein, empfiehlt Dirk Häußermann, Geschäftsführer EMEA bei Informatica. Denn jedes Unternehmen sollte nicht nur eine Strategie in die Cloud, sondern auch wieder zurück haben.
Der Siegeszug der Cloud ist nicht mehr aufzuhalten und Cloud-Lösungen werden verstärkt für verschiedenste Anwendungen genutzt. Unternehmen rüsten weltweit ihre Rechenzentren um, und entscheiden sich zunehmend für hybride Cloud-Architekturen, die Public Cloud-, SaaS– und on-Premise-Systeme umfassen.
Datenmanagement in hybriden Cloud-Architekturen ist essentiell
Die Kombination aus den Cloud-Varianten Private und Public klingt vielversprechend. Denn flexibel und agil sind die beiden Attribute, die moderne IT-Architekturen auszeichnen. -Szenarien mit einem automatisierten Datenmanagement bilden dabei die tragende Säule.
Aber wie bekommen Unternehmen ihre Daten, also ihr “Intellectual Property” in die Hybrid Cloud und wie ist die Exit-Strategie? Wie können sie ihr unternehmerisches Risiko in Bezug auf Datenschutz und Datensicherheit in der Hybrid Cloud reduzieren? Diese und weitere Fragen müssen sich Unternehmen stellen, wenn sie sich für eine komplexe hybride Cloud-Architektur entscheiden, die ihre Daten in verschiedenen Cloud-Destinationen verteilt.
Optimierungsbedarf bei Logistikprozessen?
Die Lösung lautet: Dokumentenmanagement. Erfahren Sie im kostenlosen E-Book, wie ein Dokumentenmanagement-System (DMS) Ihnen helfen kann, Ihre Logistikprozesse zu verbessern – von der Artikelnummer bis zur Zustellung. Lesen Sie außerdem, wie Sie ein DMS auch im laufenden Betrieb zeit- und kostensparend implementieren können.
Cloud-Tools werden zunehmend an ihrem Erfolg in Hybrid-Umgebungen gemessen. Ein effektives Datenmanagement spielt hierbei eine essentielle Rolle und muss bestimmte Herausforderungen wie Datenkonnektivität, Skalierbarkeit, Datensichtbarkeit und operative Kontrolle meistern.
Datenkonnektivität: die Grundlage des Data Managements
Eine robuste Datenkonnektivität für jedes Datensystem – von der Cloud bis zum Großrechner – ist ein wichtiger Bestandteil einer gut funktionierenden Datenmanagement-Lösung. Da Unternehmen Daten immer schneller verarbeiten müssen, benötigen sie eine Datenmanagement-Architektur, die Out-of-the-Box Konnektivität für jede Datenquelle und jedes Datenziel bietet. Die Basis hierfür bildet eine native, hochleistungsfähige Konnektivität, die nicht allzu komplex für die Entwickler ist und ihnen ermöglicht, Integrationslogik wie etwa Mappings datenquellen- und datenzielübergreifend wieder zu verwenden, um Geschwindigkeit und Produktivität zu steigern.
Skalierbarkeit: Eine Frage der richtigen Plattform
Darüber hinaus stehen Unternehmen häufig vor der Herausforderung, dass sie eine Anwendungsumgebung skalieren müssen, ohne die Performance zu beeinträchtigen. Die Hybrid Cloud bietet hier die richtigen Lösungen. Um von der inhärenten Petabyte-Skalierbarkeit von Public-Cloud-Datensystem zu profitieren, sollte die Architektur eine Datenintegrationsplattform umfassen, die für endlose Skalierbarkeit und Hochleistung konzipiert wurde und auch größte Datenmengen schnell transportiert. Zudem sollte sie dynamisch skalierbar sein, und sich den Anforderungen der Umgebung anzupassen.
Datensichtbarkeit: Wert und Risiken von Daten zu verstehen
Große Mengen an Daten stellen die Unternehmen vor die Aufgabe zu entscheiden, welche Daten wertvoll sind und wie diese am besten zu sichern und zu speichern sind. Es ist daher unabdingbar, dass Datenflüsse vollständig sichtbar sind und dass Unternehmen ihren Ursprung kennen und sie darauf basierend die Daten analysieren können. Entwickler müssen alle Wege verstehen, über die bestimmte Daten innerhalb eines Unternehmens bewegt und verändert werden.
Alle Stakeholder im Unternehmen benötigen zudem eine einheitliche und konsistente Definition für die Richtlinien, die in Datenmanagement und -analyse zum Einsatz kommen. Um all diese Bedingungen zu bedienen, bedarf es einer auf Metadaten basierenden Datenmanagement-Plattform. Metadaten sind das Rückgrat einer zuverlässigen, selbstdokumentierenden Lösung und die Basis einer jeden Governance-Initiative. In einer komplexen Hybrid Cloud-Umgebung wird ohne ein robustes Metadaten-Management das Chaos regieren.
Operative Kontrolle: Ziele validieren und Effizienz fördern
Nach der Zwecksetzung prüft die operative Kontrolle auf der Basis einer gegebenen Strategie, ob die in der Planung festgelegten Maßnahmen geeignet waren, die angestrebten Unternehmensziele zu erreichen. In einer Hybrid Cloud gibt es unzählige, komplexe Prozesse, die die komplette Cloud-Umgebung umfassen und verschiedene Datensysteme und -anwendungen in der Cloud und on-Premise berühren. Ein zentraler Kontrollpunkt, der prüft, ob die festgelegten Maßnahmen geeignet waren, ist entscheidend für den Unternehmenserfolg.
Unternehmen sollten ihre Produktionsdaten orchestrieren, administrieren und monitoren, um Datenintegrationsprozesse zu ermöglichen. Egal, ob Unternehmen nun Daten von einem on-Premise-System in die Public Cloud kopieren, ihr hybrides Data Warehouse aufladen oder diese in ihr hybrides Anwendungssystem integrieren – einen zentralen Management-Kontrollpunkt zu haben, ist der Schlüssel zum Erfolg.
Hybrid-Modell: automatisierte Verwaltung ist Grundvoraussetzung für den Erfolg
Hybrid Clouds sind im Trend, denn die Verknüpfung lokaler IT-Infrastrukturen mit Public Clouds bieten viele Vorteile. Doch zum Ausschöpfen sämtlicher Vorteile braucht die Hybrid Cloud ein übergreifendes Datenmanagement aus der Cloud, das für einen konsistenten und nahtlosen Transport der Daten von einem Bereich der Cloud zum anderen sorgt. Der Trend hin zu leicht zu implementierenden und skalierbaren Lösungen, die verschiedenste Aufgaben über eine Plattform abbilden können, ist unverkennbar. Die sogenannte iPaaS-Technologie ist sicher nicht neu, aber sie hat sich in den letzten Jahren enorm entwickelt. Jetzt sind die Unternehmen an der Reihe, denn für die volle Adoption der Cloud gibt es nun keinen Hinderungsgrund mehr.