“Ob Prognosen oder komplexe Entscheidungen zu treffen sind, Gemeinsamkeiten oder Ausreißer in Datenbeständen gesucht werden, stets kostet Komplexität Rechenzeit oder Hardware-Einsatz – häufig sogar beides”, sagt Professor Dr. Wolfgang Benn, Inhaber der Professur Datenverwaltungssysteme an der Technischen Universität Chemnitz.
Die Ursachen: “Entweder müssen extrem viele Datensätze durchsucht werden oder die Kombinatorik der Prädikate in der Abfrage ist enorm hoch, das heißt – eine sehr komplexe Korrelation vieler Attributwerte ist notwendig.” Wenn etwa ein Bauteil eines Fahrzeuges reklamiert wird, muss festgestellt werden, welcher Zulieferer an der Fertigung beteiligt war. Dazu muss die Decodierung der Produkt-Identifikation in die verwendeten Einzel- oder Bestandteile erfolgen – und das dauert.
Der klassische Weg zur Bewältigung dieser Komplexität sei die “KIWI-Methode” (Kill It With Iron). “Dabei kommt zusätzliche Hardware zum Einsatz, was indirekt die Energiekosten erhöht und in der Regel die Anschaffung zusätzlicher Software erfordert”, sagt Benn.
Sächsische Wissenschaftler haben nach Angaben der TU Chemnitz nun eine Alternative entwickelt, die ohne Cluster oder zusätzliche Hardware auskommt, auf die bestehende Datenbank aufsetzt und die Suche meist um den Faktor 100 oder mehr beschleunigt.
Page: 1 2
Angriffe auf APIs und Webanwendungen sind zwischen Januar 2023 und Juni 2024 von knapp 14…
Mit täglich über 45.000 eingehenden E-Mails ist die IT-Abteilung des Klinikums durch Anhänge und raffinierte…
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.