„Insights-driven“ ist der heilige Gral, den eine erfolgreiche digitale Transformation verspricht. Und immer mehr Unternehmen sind auf einem guten Weg dorthin. Woran es noch mangelt: diese Erkenntnisse in sinnvolle Aktionen umzusetzen. Auf der sogenannten „letzten Meile“ von Analytics gilt es, drei Hürden zu nehmen.
Investitionen in Daten, Analytics und künstliche Intelligenz (KI) sowie die breitere Verfügbarkeit von Machine-Learning-Tools und -Anwendungen sorgen dafür, dass Unternehmen heutzutage eine Fülle an analytischen Systemen im Einsatz haben. Aber daran allein lässt sich der Geschäftserfolg nicht messen: Tatsächlich wird erst mit der Implementierung, der Operationalisierung und der Produktivsetzung von Analytics ein echter Mehrwert aus KI und Data Science geschaffen.
Analystenschätzungen zufolge sollen bisher lediglich 35 Prozent (IDC) beziehungsweise 50 Prozent (Gartner) aller analytischen Modelle vollständig implementiert sein. Erhebungen von SAS haben ergeben, dass 44 Prozent der Modelle eine Implementierungszeit von mehr als sieben Monate benötigen. Das Manko liegt also darin, dass erstens zu wenig Modelle in Produktion gelangen und zweitens der Zeitaufwand dafür zu hoch ist – und das wiederum ist die Hauptbarriere für die Generierung von Geschäftswerten. Bei einem funktionierenden Analytics-Lebenszyklus werden aus Daten Erkenntnisse gewonnen, die die Grundlage für Entscheidungen bilden. Um den Experimentiermodus zu verlassen, müssen Unternehmen dafür sorgen, dass analytische Assets auch tatsächlich genutzt werden. Dazu gehört, dass sie Mitarbeitern in der Fachabteilung die benötigte Analytics-Power zur Verfügung stellen, damit diese bessere, datenbasierte Entscheidungen treffen können.
Doch wie können Unternehmen Analytics einsetzen, um die „letzte Meile“ zu bewältigen – auf dem Weg zu einem datengetriebenen Unternehmen?
Technologie verstehen – in allen Komponenten
Um den Modellmanagement-Prozess schlank zu halten und zu operationalisieren, bedarf es verschiedener Schritte.
• Registrieren: Ein zentrales Modell-Repository, Templates und Versionskontrolle schaffen Transparenz und die Voraussetzung für Governance. Die Möglichkeit, Daten, Code, Properties und Metadaten zusammen mit den Modellen zu speichern, gibt zudem Aufschluss über den tatsächlichen Wert analytischer Assets.
• Implementieren: Die Integration von analytischen Modellen in eine Produktionsumgebung ist der Schlüssel, um sie für Vorhersagen zu nutzen.
• Beobachten: Analytische Modelle sind nicht statisch, Bewertungen müssen kontinuierlich im Hinblick auf ihre Performance verfolgt und mit der Realität abgeglichen werden.
• Umtrainieren: Sobald die Performance eines vorhandenen Modells nachlässt, ist es notwendig, es mit neuen Daten zu trainieren, mit neuen Techniken zu überarbeiten oder vollständig durch ein besseres Modell zu ersetzen.
Rollen und Verantwortlichkeiten neu definieren
Für die erfolgreiche Absolvierung der „letzten Meile“ müssen Stakeholder mit unterschiedlichen Fähigkeiten – Data Science, Fachabteilung, IT und DevOps – eng zusammenarbeiten. Dabei haben die unterschiedlichen Rollen jeweils spezifische Ziele. Für Data Scientists gilt es, bei der Entwicklung von Analytics-Anwendungen gleich die Implementierung mit zu berücksichtigen. IT und DevOps müssen sich um Integration, operative Datenflüsse sowie Datenaufbereitung für Implementierung und Umtrainieren von Modellen kümmern. Mitarbeiter aus den Fachabteilungen haben die anvisierten Vorteile zu definieren, die die analytischen Modelle liefern sollen. Darüber hinaus sollten sie gemeinsam mit den Data Scientists die Ergebnisse prüfen, wenn das Modell in Produktion gegangen ist, und diese kontinuierlich verfolgen.
Systematische Prozesse schaffen
Wertschöpfung, Integrität und Transparenz für ein Modell lassen sich nur sicherstellen, wenn ein Prozess für die Operationalisierung von Analytics aufgesetzt worden ist. Oftmals gibt es im analytischen Lebenszyklus einen präzise festgelegten Prozess für die Entwicklung von Analytics. Modellimplementierung und -management sind dort jedoch oftmals nicht abgebildet. Ein sorgfältig definierter Prozess mit Templates und Workflow hat die Aufgabe sicherzustellen, dass das mit Trainingsdaten arbeitende Modell auch in der realen Welt die beabsichtigten Ergebnisse bringt. Und das gleiche Modell muss in unterschiedlichen Betriebssystemen und Prozessen ausgeführt werden können.
Die Leistung des eingesetzten Modells muss kontinuierlich verfolgt werden. Nicht überraschend: Die letzte Meile der Operationalisierung von Analytics ist der schwierigste Teil in der digitalen Transformation von Unternehmen. Aber sie ist unbedingt notwendig, wenn sie das Maximum aus ihren Investitionen in KI und Analytics herausholen wollen.
Real-World-Beispiel: Risikoanalyse und -bewertung
Welche Auswirkungen es haben kann, wenn die analytischen Modelle nicht operationalisiert werden, zeigt das Beispiel dreier Regionalbanken: Diese liefen Gefahr, aufgrund ihres mangelhaften Prozesses für das Kreditrisikomanagement von den Rating-Agenturen herabgestuft zu werden. Das Ändern von Bewertungsmodellen nahm sehr viel Zeit in Anspruch. Bis ein Modell zur Kreditbewertung in Produktion ging, verging mehr als ein Jahr – was sich negativ auf die Risikobilanz auswirkte. Die Banken implementierten SAS Lösungen, um das Erstellen und die Anwendung von Bewertungsmodellen zu beschleunigen, einen sicheren Prozess für das Kreditrisikomanagement aufzusetzen und Änderungen nachvollziehen zu können.
Mit vorkonfigurierten Datenmanagementprozessen konnten die Finanzinstitute die Time-to-Market für Kreditrisikomodelle verkürzen und erhielten präzisere Risikobewertungen für ihre Kunden. Dank besserem Kreditrisikomanagement und flexibler Preisgestaltung ließen sich auch neue Produkte schneller einführen. Und die größere Genauigkeit der Kreditrisikoanalyse steigerte das Gesamtergebnis jeder einzelnen Bank.