Wenn man den Wetterbericht höre oder lese, mache man sich in der Regel wenig Gedanken darum, wie viel Rechenleistung und wie viele Datenabfragen notwendig seien, bevor der Bericht zu Stande kommt, so Kobayashi-Hillary.
Mittlerweile seien die Techniken für die Analyse großer Datenmengen weit fortgeschritten. IBM nutze diese Prognose-Technologien, um in Zusammenarbeit mit dem Beacon Institute die Wasserqualität des Hudson zu untersuchen. Dabei habe sich herausgestellt: 98 Prozent der Änderungen der Wasserqualität geschahen in nur 2 Prozent der Zeit.
Dies sei ein Beispiel für das Pareto-Prinzip, so Kobayashi-Hillary. Um zu wissen, wann die entscheidenden zwei Prozent auftreten, müsse man die Daten jedoch zu 100 Prozent auswerten. [Das Pareto-Prinzip ist auch als die 80-20-Regel bekannt. Es besagt zum Beispiel, dass ein Unternehmen 80 Prozent des Umsatzes mit 20 Prozent der Kunden erzielt.]
Anstelle von Schätzungen und Intuition müssten auch Unternehmen auf die Auswertung großer Datensammlungen setzen, schreibt der Fachautor. Data Warehousing und Business Intelligence seien dabei nur der erste Schritt. Führungskräfte fragten immer mehr nach Daten, die ihnen Fakten-basierte Entscheidungen ermöglichen. “Und es ist die Aufgabe der IT-Abteilung oder IT-Dienstleisters herauszufinden, wo diese Informationen existieren.”
Assistenzsysteme unterstützen Monteure bei der Arbeit. Zu oft zahlt man jedoch mit den eigenen Daten…
Hersteller werden stärker in die Pflicht genommen, den gesamten Lebenszyklus ihrer Produkte in den Blick…
LLMs besitzen einerseits innovative neue Fähigkeiten, stellen Unternehmen allerdings auch vor diverse Herausforderungen: ob EU…
Server-Ausbau in den USA und China macht große Fortschritte, deutscher Weltmarktanteil sinkt. Lichtblicke in Frankfurt…
Der Markt für Workplace Services gerät in Bewegung. Das bestmögliche digitale Nutzererlebnis gilt als Schlüssel…
Schutz für 10.000 Postfächer über rund 200 Domains: Private-Stack-Variante kombiniert Vorteile einer Cloud-Lösung mit Sicherheit…