Die Verbreitung von In-Memory-Datenbanken bei Unternehmen ist noch ausbaufähig. Derzeit, so eine Studie des unabhängigen IT-Dienstleisters Sopra Steria Consulting, würden etwa ein Drittel aller Unternehmen diese Technologie nutzen.
Durch den Einsatz von In-Memory können Daten im Arbeitsspeicher gehalten werden. Dadurch werden Analysen deutlich schneller. Derzeit plane etwas mehr als die Hälfte aller Unternehmen den Einsatz von In-Memory, so die Studie “In-Memory-Analytics”, in der hundert IT-Entscheider aus Unternehmen ab 500 Mitarbeitern befragt worden sind.
Unternehmen, die große Datenvolumen von hundert Terabyte und mehr verarbeiten müssen, setzen derzeit auf In-Memory. Hier sind es etwa 50 Prozent der Unternehmen. Vor allem Finanzdienstleister mit 44 Prozent und Industrieunternehmen mit 43 Prozent setzen diese Technologie ein.
Hinsichtlich Unternehmensgröße führen Organisationen mit zwischen 1.000 bis 5.000 Mitarbeitern die die Statistik mit knapp 60 Prozent an.
Ein weiteres Ergebnis der Befragung ist, dass Anwender In Memory häufiger in Form von Datenbanken einsetzen und als In-Memory-Analytics. In-Memory-Analytics greifen auf bestehende Datenbanken zu und werten diese aus. Damit lassen sich auch große und polystrukturierte Datenmengen in Echtzeit speichern und auswerten.
“Aufgabe der IT-Entscheider ist es nun, In-Memory-Datenbanken in Richtung Analytics weiterzuentwickeln”, weiß Robert Hänsel, Experte für Business Intelligence und Big Data Analytics bei Sopra Steria Consulting. “Dafür sollten Unternehmen auch eine fachbereichsübergreifende Initiative oder Task Force initiieren, welche unternehmensindividuelle Anwendungsfälle entwickelt. Die IT ist technisch der Enabler, der Erfolg wird allerdings erst über die passenden analytischen Anwendungsfälle hergestellt.”
Dass es aber für die meisten Unternehmen nicht gerade einfach ist, entsprechende Technologien einzusetzen und auch gewinnbringend auszuwerten, zeigt Sopra Steria in einer weiteren Studie.
So sei der Einsatz von analytischen Plattformen – also auf In-Memory-Computing basierende Big-Data-Lösungen für nahezu alle Unternehmen (96 Prozent) eine größere Herausforderung.
Die wichtigsten Probleme sollen laut Umfrage fachliche Hürden sein. Und Experten-Mangel gibt es bei technischen Fragen wie auch bei der Auswertung der Daten. Ein weiteres weit verbreitetes Problem sei auch die Integration in die bestehende IT-Infrastruktur. Diese treten besonders deutlich bei Unternehmen zu tage, die 100 Terabyte oder mehr verarbeiten müssen.
Neben dem vielbeschworenen Fachkräftemangel kämpfen IT-Entscheider häufig auch mit mangelnder Investitionsbereitschaft der Unternehmensleitung.
Nachdem in vielen Fällen der Wert der Informationen, Daten und Analysemöglichkeiten in der Geschäftsleitung zu gering geschätzt wird, fehlt häufig auch die Bereitschaft, entsprechende Investitionen zu tätigen.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…