Categories: Data

Analytische Modelle operationalisieren: So kommen KI & Co. in die Business-Praxis

Schätzungen von IDC zufolge sollten Unternehmen 2019 weltweit über 189 Milliarden US-Dollar in Analytics investiert haben – aber erst 35 Prozent von ihnen sind bislang so weit, dass sie ihre analytischen Modelle auch komplett produktiv nutzen können. McKinsey nennt noch drastischere Zahlen: Laut dem Beratungshaus skalieren erst acht Prozent der Unternehmen ihre analytischen Initiativen erfolgreich.

Gründe dafür sind aufwendige manuelle Prozesse und eine schwierige, inkonsistente Zusammenarbeit von Fachbereichen und Anwendern. Eine verbesserte Modellentwicklung und -erstellung sowie Automatisierung können den Übergang von der Entwicklung hin zur Bereitstellung von Modellen wesentlich vereinfachen.

Strategien und Prozesse für die Umsetzung

Um Analytics und KI in den Geschäftsalltag zu bringen, müssen unterschiedlichste Rollen zusammenarbeiten. Auf der einen Seite stehen Data Scientists, die mit (neuen) Daten experimentieren, diese explorieren und somit Innovation vorantreiben. Ihre Aufgabe ist es, Daten aufzubereiten, zu untersuchen und daraus analytisch-statistische Modelle zu entwickeln. Auf der anderen Seite stehen IT, App-Entwickler und Fachbereiche. Hier werden Modelle ausgeführt, überprüft und in die Geschäftsprozesse integriert. Die Erkenntnisse aus der Datenanalyse sind Grundlage für automatisierte Prozesse, fundierte Entscheidungen und relevante Aktionen.

Jeder macht, was er am besten kann. Das heißt: Der Data Scientist ist für die Modellentwicklung zuständig, der IT-Manager kümmert sich um das Deployment und Management der Modelle sowie die Data Governance – zusammen mit der Geschäftsleitung. Der Business Manager kann per Self-Service-Verfahren Geschäftsregeln entwickeln, testen und steuern – und zwar sowohl in Echtzeit als auch im Batchverfahren. Er tauscht sich zudem mit dem IT-Verantwortlichen aus, um Prozesse zu beschleunigen und den Return on Investment durch Automatisierung zu steigern. Projektsicherheit entsteht durch eine integrierte Analytics-Plattform.

Was gilt es zu beachten?

1. Nicht in Silos denken. Automatisierte Entscheidungen erfordern eine zentrale „Decision Factory“.

2. Monetarisierung erfordert Erkennen und Handeln. Es reicht also nicht, Algorithmen zu entwickeln und damit Daten zu analysieren. Um Mehrwert aus ihnen zu ziehen, müssen die analytischen Modelle operationalisiert und schnell in bestehende Prozesse integriert werden. Produktion und Automatisierung sind daher unerlässlich.

3. Nachvollziehbarkeit baut Hürden ab. Transparenz und Governance entlang der gesamten Prozesskette – von den Daten bis zur automatisierten Entscheidung – schaffen Vertrauen bei Anwendern, Kunden, Management und Aufsicht.

Transparenz schafft Vertrauen

Letzteres ist auch die Voraussetzung, um Fairness, Transparenz und Ethik in KI-basierte Entscheidungen zu bringen. Die „vier Säulen des Vertrauens“ bestehen nach Scott Shapiro von KPMG aus Qualität, Resilienz, Integrität und Effektivität – und sollten für den gesamten analytischen Lifecycle gelten. Eine klare Einschätzung, wo Daten herkommen, wie sie entstanden und wie zuverlässig sie sind, ist insbesondere wichtig, wenn externe Quellen einbezogen werden. Für die Integrität der Datenanalyse müssen Prozesse und die Wahl der Methoden erklärbar und nachvollziehbar sein. Und schließlich sollte im Sinne der Effektivität geprüft werden, ob die Aussagen der Analysen zuverlässig und diskriminierungsfrei sind.

Fahrzeugschäden per Bild erkennen

Ein Beispiel ist die Echtzeit-Schadenbearbeitung nach einem Autounfall. Der Entscheidungsprozess wird angestoßen, wenn der Fahrer den Schadensfall auf der Website der Kfz-Versicherung meldet. Im Backend werden in der Kundendatenbank die Vertragsinfos abgerufen und abgeglichen, um Betrug auszuschließen. Über Bilderkennung wird der Schaden eingestuft. Der Versicherungsexperte berechnet Reparaturkosten versus Abschreibung und bewertet sie anhand vorher entworfener Geschäftsregeln. Ein automatisierter Prozess kommt in Gang: Der Versicherungsnehmer bekommt die Ergebnisse der Prüfung (Genehmigung) mitgeteilt sowie die Information, welche Werkstatt die Reparatur übernehmen wird. Und als besonderen Service noch den Link zur Uber-App, damit er sich eine Transportalternative bestellen kann.

Durch dieses Vorgehen erhöht sich die Vorhersagegenauigkeit signifikant, ob eine Reparatur sinnvoll ist oder es sich um einen Totalschaden handelt. Der durchschnittliche Zeitaufwand für die Bearbeitung von Totalschäden reduziert sich in der Praxis dramatisch. Diese Vorteile überzeugen auch die Schadenbearbeiter: Bereits in einem ersten Testlauf akzeptierten sie 94 Prozent der automatischen Empfehlungen, wie ein großer europäischer Versicherer herausfand.

Redaktion

Recent Posts

Cloud-Beschleuniger Covid

Vielfach hat die Coronapandemie bestehende IT-Strukturen aufgebrochen oder gar über den Haufen geworfen – gefühlt.…

4 Jahre ago

Trends 2021 – Vier Entwicklungen bei (Graph)Datenbanken und Datenanalyse

Das Covid-Jahr 2020 konnte die digitale Transformation nicht ausbremsen. Sogar ganz im Gegenteil: Viele Unternehmen…

4 Jahre ago

Ein globales digitales Identitätssystem muss Vertrauen und Transparenz schaffen

Nach Angaben der Weltbank fehlt mehr als einer Milliarde Menschen ein offizieller Identitätsnachweis. Ohne den…

4 Jahre ago

Nachhaltigkeit wird zu einem der Schlüsselkriterien in der Tech-Industrie

Das Thema Nachhaltigkeit ist seit vielen Jahren fester Bestandteil des Selbstverständnisses vieler Unternehmen. Wenig verwunderlich,…

4 Jahre ago

Chief Data Officer: Garanten für eine stärkere Datennutzung in Unternehmen

Unternehmen sammeln eine Vielzahl von Daten. Doch IDC Analysten fanden in ihrer aktuellen Studie „IDC‘s…

4 Jahre ago

Ethik, Regulierungen, Cloud: Der Nebel lichtet sich

COVID-19 hat 2020 sowohl Gesellschaft als auch Wirtschaft bestimmt. Unbestritten ist auch die katalytische Wirkung,…

4 Jahre ago