Categories: CloudCloud-Management

Datenmangement bestimmt 2018 die IT-Charta

Veritas hat in einer Studie von 2017 herausgefunden, dass rund 69 Prozent der befragten deutschen Firmen fälschlicherweise davon ausgehen, die Cloud Service Provider seien für die Datensicherheit, -privacy und Compliance der Daten in der Cloud verantwortlich. Dieser Irrtum kombiniert mit der vorherrschenden Wild-West-Mentalität bei der Adaption von Multi-Cloud Konzepten erhöht das Risiko von Datenlecks und Regelverstößen.

Ausgewähltes Whitepaper

CAD-Daten optimal verwalten: ECM-Lösungen vereinfachen Planmanagement

Wie ECM-Systeme CAD-Prozesse verbessern können, was eine gute ECM-Lösung beim Planmanagement auszeichnet und warum sich nscale CAD als spezialisierte Lösung für das Planmanagement anbietet, erklärt dieses Whitepaper.

Denn auf Basis dieser falschen Annahme werden wichtige eigene Vorkehrungen zu lax oder gar nicht getroffen. Im Ernstfall werden einige IT-Leiter ihre Verantwortung für die Daten in der Cloud erst dann erkennen, wenn sie auf einen Datenverlust reagieren müssen. Zugleich werden die meisten IT-Leiter die Kosten für ihre Infrastruktur weiter senken müssen, woraufhin die meisten Unternehmen mehr Cloud-Dienste in Anspruch nehmen werden. (Quelle: Studie Truth in Cloud 2017)

Die Datenmenge wächst ungebremst, aber die Investitionen in Datenspeicher sinken

Im vergangenen Jahr wuchs die Menge der Daten im Vergleich zum Vorjahr um 48,7 Prozent. Die Folge: Speicherplatz geht schneller zur Neige, so dass Firmen in mehr Storage investieren. Allerdings kennen die meisten Organisationen bei rund der Hälfte aller gespeicherten Dateien nicht einmal deren Inhalt. Deshalb werden Unternehmen im Jahr 2018 ihre Storage-Strategien überdenken. Die aktuelle “Save-it-all”-Mentalität macht einer Strategie Platz, in der Firmen die Inhalte ihrer Daten untersuchen, übergreifend kategorisieren und nur noch solche speichern, die einen Wert für das Geschäft haben und ihnen wertvolle Einblicke liefern. (Source: Data Genomics Index 2017 )

Worüber sich Unternehmen sorgen, sollte ein Verstoß gegen die EU-Datenschutzgrundverordnung bekannt werden: (Grafik: Veritas)

Die DSGVO bleibt eine Herausforderung für Unternehmen

Trotz des nahen Stichtags 25. Mai sehen sich nur 36 Prozent der deutschen Unternehmen gut auf die neuen Regelungen vorbereitet. Es ist zu erwarten, dass nur wenige Firmen hierzulande und noch weniger weltweit die Verordnung umfassend einhalten werden.

Veritas erwartet, dass insbesondere andere Länder außerhalb der EU schlechter aufgestellt sind. Dabei müssen die neuen Regeln von allen Organisationen eingehalten werden, die mit Daten von EU-Bürgern arbeiten. Es dürfte daher niemanden überraschen, wenn die erste Strafe ein Unternehmen außerhalb der EU trifft. (Quelle: Veritas GDPR Report)

Datenmanagement wird dank Analytics intelligenter

Fortschritte in Sachen Data Analytics werden sich massiv auf Archivierung, Backup und Storage auswirken. Bislang betreiben die meisten Firmen diese Bereiche strategisch als Datensilos, deren Größe jedes Jahr einfach erweitert wird. Veritas erwartet, dass sich neue Technologien aus dem großen Fundus der Künstlichen Intelligenz bedienen werden, um die Daten in den Silos klüger zu analysieren. Auf dieser Grundlage lassen sich inhaltbezogene Policies automatisch durchsetzen und intelligente Prozesse im Datenmanagement anstoßen. Unternehmen werden so in der Lage sein, ihre überladenen Datensilos und Archive zu inventarisieren, um im Idealfall daraus neues Wissen für ihr Geschäft zu ziehen.

Ausgewähltes Whitepaper

SAP S/4HANA trifft ECM: Was Sie für eine erfolgreiche Migrationsstrategie beachten sollten

Ceyoniq beleutet in diesem Whitepaper anhand von sechs Thesen die wichtigsten Aspekte zum Thema und gibt Tipps für eine erfolgreiche Migrationsstrategie.

Das Ausmaß von Datenlecks nimmt zu

Laut den Angaben des Identity Theft Resource Centers wurden allein im Jahr 2016 in den USA fast 1.100 Fälle registriert, bei denen Firmen Daten verloren – eine Steigerung von 40 Prozent gegenüber 2015. Diese Menge wurde 2017 bereits im Juli erreicht. Durch die Cloud und die Digitalisierung sind mehr Systeme denn je Software-defined und generieren mehr Daten, die an noch mehr Orten abgelegt werden.

Es ist essenziell, dass Firmen einen simplen, holistischen Ansatz für Backup und Sicherheit wählen, um ihre Daten und Workloads in ihrer gesamten Umgebung zu schützen. Dieser Ansatz muss agil sein, klug und skalierbar, insbesondere weil Malware tiefer in neue und alte Applikationen, Systeme und Workloads eindringen kann als jemals zuvor. Dies beweist schon die Existenz von Spectre und Meltdown.

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

4 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

4 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

4 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

4 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

4 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

4 Jahre ago