Aus Gründen einer begrenzten Leistungskapazität werden Unternehmensdaten derzeit auf unterschiedliche Datenbanken aufgeteilt. Analytische Daten residieren in Data- oder Business-Warehouses. Sie werden regelmäßig mit den Daten im Transaktionssystem (ERP-System) synchronisiert. Diese Trennung macht eine Echtzeit-Auswertung aktueller Daten unmöglich. Mehrkernprozessoren, riesige Hauptspeicher und Cloud Computing schaffen laut Plattner nun die Grundlage dafür, dass sich Unternehmen vom bisherigen Modell abwenden können.
Plattner und Co-Autor Dr. Alexander Zeier beschreiben in “In-Memory Data Management – An Inflection Point for Enterprise Application” Techniken, die eine schnelle analytische und transaktionale Datenverarbeitung ermöglichen. Sie stellen dar, wie die ‘SanssouciDB’ genannte Datenbanklösung über mehrere Server verteilt werden kann und wie sie auf einem einzigen Höchstleistungsrechner zu betreiben ist. Zudem wird die Nutzung von SanssouciDB im Cloud Computing beschrieben. Das Buch ist in englischer Sprache im Springer-Wissenschaftsverlag erschienen.
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…
Cloud-Trends 2025: Zahlreiche neue Technologien erweitern die Grenzen von Cloud Computing.
Noah Labs wollen Kardiologie-Praxen und Krankenhäuser in Deutschland durch KI-gestütztes Telemonitoring von Patienten entlasten.