Viele Anwender sind in ihren traditionellen Architekturen für die Verarbeitung strukturierter Daten gefangen. Trotzdem ist das Datenwachstum die größte Herausforderung in der IT. Weniger ernst werden beispielsweise technische Lösungen für Backup und Disaster Recovery oder der Einsatz von Insellösungen gesehen.
Eine große Kluft entsteht bei einzelnen Themen zwischen kleinen und großen Unternehmen. So ist für große Unternehmen die Verteilung von Daten (und der gewonnenen Informationen) an die richtigen Empfänger eine große Aufgabe, während das bei kleinen Unternehmen naturgemäß eine geringere Bedeutung hat.
Wie wichtig die im Unternehmen handzuhabende Datenmenge ist, zeigt sich auch an den Sorgen um die Integrität der Daten. Große Unternehmen sehen hier Probleme auf sich zukommen, während kleinere Unternehmen ihre Daten weitgehend im Griff zu haben scheinen. Generell haben kleine und mittlere Unternehmen beim Umgang mit unternehmensrelevanten Daten weniger Probleme als große Unternehmen, was die Experton-These, dass Big Data kein Mittelstandsthema ist, untermauert.
Migrations- und Transitions-Pfade von heute strukturierten Unternehmensdaten zu unstrukturierten und strukturierten Massendaten aus beliebigen Quellen könnten demnach wichtiger sein als Lösungen für die Bewältigung der eigentlichen Verarbeitung. Es ist sicherlich hilfreich, wenn sich die Anbieter hier zunächst auf Tools konzentrieren, mit denen Anwender die Gültigkeit und den Wahrheitsgehalt von großen Datenmengen prüfen, um den daraus zu gewinnenden Informationen vertrauen zu können. Zudem benötigen die Anwender Lösungen für den Schutz gegen Katastrophen und Benutzerfehler, wie das irrtümliche Löschen von Datenbankbereichen. Heute vorhandene Backup- und Disaster-Recovery-Lösungen können möglicherweise nicht in den Tera- und Petabytes-Bereich skalieren, der von Big Data erreicht wird.
Die wichtigsten Treiber für Big Data (und Vorstufen der Big-Data-Verarbeitung) sind das Datenwachstum, das Qualitätsmanagement und die Automatisierung von Analysen und Reporting. Letzteres ist bei nahezu allen befragten Unternehmen das wichtigste Argument für die Erneuerung der Analytics-Lösungen.
Außerdem sind praktisch alle Merkmale, die für Big Data zutreffen, auch als Triebfaktoren für den Ausbau des strategischen Datenmanagements genannt worden, was bestätigt, dass Big Data in den Unternehmen ein reales Anliegen ist, auch wenn diese den Begriff Big Data für ihre Anliegen noch nicht adaptiert haben.
Weiterhin sind Qualitätsmanagement, Datenwachstum, Konsolidierung (hauptsächlich, aber nicht nur der IT) und Effizienzsteigerung ebenfalls wichtige Treiber für neue Analytics-Lösungen. Felder wie Kundenbindung und Marketingkampagnen sind für rund ein Drittel der befragten Unternehmen ein Anlass, die Datenanalyse-Verfahren zu überdenken.
Die Verfügbarkeit neuer Datenbanktechnologien wird in 27 Prozent der Nennungen als Treiber für neue Datenanalyse-Verfahren und strategisches Datenmanagement angeführt.
Bemerkenswert ist bei der Analyse der Big-Data-Treiber, dass über alle Branchen und Unternehmensgrößen hinweg die gleichen Treiber eine Rolle spielen, wenn auch in unterschiedlicher Intensität.
Einsatz von KI-Lösungen wirbelt auch in deutschen Unternehmen die Liste der Top-Technologieanbieter durcheinander.
Echtzeitüberweisungen erfüllen die Erwartungen der Nutzer an Geschwindigkeit, sind jedoch anfällig für spezifische Sicherheits- und…
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…