Viele Anwender sind in ihren traditionellen Architekturen für die Verarbeitung strukturierter Daten gefangen. Trotzdem ist das Datenwachstum die größte Herausforderung in der IT. Weniger ernst werden beispielsweise technische Lösungen für Backup und Disaster Recovery oder der Einsatz von Insellösungen gesehen.
Eine große Kluft entsteht bei einzelnen Themen zwischen kleinen und großen Unternehmen. So ist für große Unternehmen die Verteilung von Daten (und der gewonnenen Informationen) an die richtigen Empfänger eine große Aufgabe, während das bei kleinen Unternehmen naturgemäß eine geringere Bedeutung hat.
Wie wichtig die im Unternehmen handzuhabende Datenmenge ist, zeigt sich auch an den Sorgen um die Integrität der Daten. Große Unternehmen sehen hier Probleme auf sich zukommen, während kleinere Unternehmen ihre Daten weitgehend im Griff zu haben scheinen. Generell haben kleine und mittlere Unternehmen beim Umgang mit unternehmensrelevanten Daten weniger Probleme als große Unternehmen, was die Experton-These, dass Big Data kein Mittelstandsthema ist, untermauert.
Migrations- und Transitions-Pfade von heute strukturierten Unternehmensdaten zu unstrukturierten und strukturierten Massendaten aus beliebigen Quellen könnten demnach wichtiger sein als Lösungen für die Bewältigung der eigentlichen Verarbeitung. Es ist sicherlich hilfreich, wenn sich die Anbieter hier zunächst auf Tools konzentrieren, mit denen Anwender die Gültigkeit und den Wahrheitsgehalt von großen Datenmengen prüfen, um den daraus zu gewinnenden Informationen vertrauen zu können. Zudem benötigen die Anwender Lösungen für den Schutz gegen Katastrophen und Benutzerfehler, wie das irrtümliche Löschen von Datenbankbereichen. Heute vorhandene Backup- und Disaster-Recovery-Lösungen können möglicherweise nicht in den Tera- und Petabytes-Bereich skalieren, der von Big Data erreicht wird.
Die wichtigsten Treiber für Big Data (und Vorstufen der Big-Data-Verarbeitung) sind das Datenwachstum, das Qualitätsmanagement und die Automatisierung von Analysen und Reporting. Letzteres ist bei nahezu allen befragten Unternehmen das wichtigste Argument für die Erneuerung der Analytics-Lösungen.
Außerdem sind praktisch alle Merkmale, die für Big Data zutreffen, auch als Triebfaktoren für den Ausbau des strategischen Datenmanagements genannt worden, was bestätigt, dass Big Data in den Unternehmen ein reales Anliegen ist, auch wenn diese den Begriff Big Data für ihre Anliegen noch nicht adaptiert haben.
Weiterhin sind Qualitätsmanagement, Datenwachstum, Konsolidierung (hauptsächlich, aber nicht nur der IT) und Effizienzsteigerung ebenfalls wichtige Treiber für neue Analytics-Lösungen. Felder wie Kundenbindung und Marketingkampagnen sind für rund ein Drittel der befragten Unternehmen ein Anlass, die Datenanalyse-Verfahren zu überdenken.
Die Verfügbarkeit neuer Datenbanktechnologien wird in 27 Prozent der Nennungen als Treiber für neue Datenanalyse-Verfahren und strategisches Datenmanagement angeführt.
Bemerkenswert ist bei der Analyse der Big-Data-Treiber, dass über alle Branchen und Unternehmensgrößen hinweg die gleichen Treiber eine Rolle spielen, wenn auch in unterschiedlicher Intensität.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…