Wenn man den Wetterbericht höre oder lese, mache man sich in der Regel wenig Gedanken darum, wie viel Rechenleistung und wie viele Datenabfragen notwendig seien, bevor der Bericht zu Stande kommt, so Kobayashi-Hillary.
Mittlerweile seien die Techniken für die Analyse großer Datenmengen weit fortgeschritten. IBM nutze diese Prognose-Technologien, um in Zusammenarbeit mit dem Beacon Institute die Wasserqualität des Hudson zu untersuchen. Dabei habe sich herausgestellt: 98 Prozent der Änderungen der Wasserqualität geschahen in nur 2 Prozent der Zeit.
Dies sei ein Beispiel für das Pareto-Prinzip, so Kobayashi-Hillary. Um zu wissen, wann die entscheidenden zwei Prozent auftreten, müsse man die Daten jedoch zu 100 Prozent auswerten. [Das Pareto-Prinzip ist auch als die 80-20-Regel bekannt. Es besagt zum Beispiel, dass ein Unternehmen 80 Prozent des Umsatzes mit 20 Prozent der Kunden erzielt.]
Anstelle von Schätzungen und Intuition müssten auch Unternehmen auf die Auswertung großer Datensammlungen setzen, schreibt der Fachautor. Data Warehousing und Business Intelligence seien dabei nur der erste Schritt. Führungskräfte fragten immer mehr nach Daten, die ihnen Fakten-basierte Entscheidungen ermöglichen. “Und es ist die Aufgabe der IT-Abteilung oder IT-Dienstleisters herauszufinden, wo diese Informationen existieren.”
Unternehmen wissen oft nicht, welche Geräte in der Produktion eine IP-Adresse haben, warnt Peter Machat…
KPMG-Studie: 97 Prozent der Cloud-nutzenden Unternehmen verwenden KI-Dienste von Cloud-Anbietern.
Bitkom veröffentlicht Online-Tool und Leitfaden zum KI-Einsatz in Unternehmen. Beide Angebote sind kostenlos.
Neue Kunden sind unter anderem SAP, Conforama Schweiz, 11teamsports, Phillip Morris International, Baywa und Thalia.
Oracle schafft einheitliche Plattform für vier Ministerien und über 250.000 Beamte mit der Oracle Applications…
Der Grund: Geräte, die mit veralteter Software arbeiten, sind anfällig für Cyberangriffe und Datenlecks.