Categories: Data

In-Memory mit geringer Verbreitung in Unternehmen

Die Verbreitung von In-Memory-Datenbanken bei Unternehmen ist noch ausbaufähig. Derzeit, so eine Studie des unabhängigen IT-Dienstleisters Sopra Steria Consulting, würden etwa ein Drittel aller Unternehmen diese Technologie nutzen.

Durch den Einsatz von In-Memory können Daten im Arbeitsspeicher gehalten werden. Dadurch werden Analysen deutlich schneller. Derzeit plane etwas mehr als die Hälfte aller Unternehmen den Einsatz von In-Memory, so die Studie “In-Memory-Analytics”, in der hundert IT-Entscheider aus Unternehmen ab 500 Mitarbeitern befragt worden sind.

Unternehmen, die große Datenvolumen von hundert Terabyte und mehr verarbeiten müssen, setzen derzeit auf In-Memory. Hier sind es etwa 50 Prozent der Unternehmen. Vor allem Finanzdienstleister mit 44 Prozent und Industrieunternehmen mit 43 Prozent setzen diese Technologie ein.

Hinsichtlich Unternehmensgröße führen Organisationen mit zwischen 1.000 bis 5.000 Mitarbeitern die die Statistik mit knapp 60 Prozent an.

Ein weiteres Ergebnis der Befragung ist, dass Anwender In Memory häufiger in Form von Datenbanken einsetzen und als In-Memory-Analytics. In-Memory-Analytics greifen auf bestehende Datenbanken zu und werten diese aus. Damit lassen sich auch große und polystrukturierte Datenmengen in Echtzeit speichern und auswerten.

“Aufgabe der IT-Entscheider ist es nun, In-Memory-Datenbanken in Richtung Analytics weiterzuentwickeln”, weiß Robert Hänsel, Experte für Business Intelligence und Big Data Analytics bei Sopra Steria Consulting. “Dafür sollten Unternehmen auch eine fachbereichsübergreifende Initiative oder Task Force initiieren, welche unternehmensindividuelle Anwendungsfälle entwickelt. Die IT ist technisch der Enabler, der Erfolg wird allerdings erst über die passenden analytischen Anwendungsfälle hergestellt.”

Dass es aber für die meisten Unternehmen nicht gerade einfach ist, entsprechende Technologien einzusetzen und auch gewinnbringend auszuwerten, zeigt Sopra Steria in einer weiteren Studie.

So sei der Einsatz von analytischen Plattformen – also auf In-Memory-Computing basierende Big-Data-Lösungen für nahezu alle Unternehmen (96 Prozent) eine größere Herausforderung.

Die wichtigsten Probleme sollen laut Umfrage fachliche Hürden sein. Und Experten-Mangel gibt es bei technischen Fragen wie auch bei der Auswertung der Daten. Ein weiteres weit verbreitetes Problem sei auch die Integration in die bestehende IT-Infrastruktur. Diese treten besonders deutlich bei Unternehmen zu tage, die 100 Terabyte oder mehr verarbeiten müssen.

Neben dem vielbeschworenen Fachkräftemangel kämpfen IT-Entscheider häufig auch mit mangelnder Investitionsbereitschaft der Unternehmensleitung.

Nachdem in vielen Fällen der Wert der Informationen, Daten und Analysemöglichkeiten in der Geschäftsleitung zu gering geschätzt wird, fehlt häufig auch die Bereitschaft, entsprechende Investitionen zu tätigen.

Redaktion

Recent Posts

Alle Prozesse im Blick: IT-Service Management bei der Haspa

Wo es früher auf Buchhalter, Schreiber und Boten ankam, geht es heute vor allem um…

1 Stunde ago

Wie generative KI das Geschäft rund um den Black Friday verändert

Mit KI-Technologien lässt sich das Einkaufserlebnis personalisieren und der Service optimieren, sagt Gastautor Gabriel Frasconi…

2 Stunden ago

Banken und Versicherer sind KI-Großabnehmer

Ein Großteil der weltweiten KI-Gelder fließt in den Finanzsektor. 2023 wurden in der Branche 87…

23 Stunden ago

Siemens legt 10 Milliarden Dollar für Software-Spezialisten auf den Tisch

Die Übernahme des US-amerikanischen Anbieters Altair Engineering soll die Position im Markt für Computational Science…

24 Stunden ago

Standortübergreifender KI-Einsatz im OP-Saal

Ein deutsch-französisches Projekt hat hybride Operationssäle entwickelt, die durch 5G-Netz und KI neue Anwendungen ermöglichen.

1 Tag ago

OT-Security braucht zunächst Asset-Transparenz

Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…

4 Tagen ago