Der erste Hype um ChatGPT ist abgeebbt, Innovationseuphoriker wie Berufspessimisten haben ihre Statements lanciert – Zeit für eine kühle Betrachtung. Klar ist, Fortschritt und Veränderungen sind nicht immer und ausschließlich positiv. Als die Erfindung des Automobils verhinderte, dass Paris, London, Berlin und New York im Kot der Pferdekutschen ersticken, wurden viele Arbeitsplätze im Droschken-Business obsolet. Das illustriert den Zielkonflikt zwischen Fortschritt im Großen und partiellem Rückschritt im Kleinen. Die Betroffenen finden das verständlicherweise gar nicht lustig. Ende der letzten Dekade wurden in einigen Redaktionen intelligente Textgeneratoren getestet. Ergebnis: Die Texte waren praktisch unlesbar, kritisch-kreative Redakteure nicht zu ersetzen. Ein Experiment mit sehr überschaubarer Halbwertszeit.
Die vielstimmigen Einschätzungen über die Konsequenzen von intelligenten Chatbots wie ChatGPT reichen von Disruption und Revolution bis zu potenzieller Arbeitsplatzkiller und totalitäres Machtinstrument. Fakt ist, dass wir die Tragweite noch gar nicht richtig abschätzen können. Der Philosoph Georg Wilhelm Friedrich Hegel hat die Erfindung von Schusswaffen einmal als demokratischen Fortschritt gefeiert: Die Anonymisierung der Kombattanten, die sich nicht mehr wie „12 Uhr mittags“ Mann gegen Mann gegenüberstehen, entziehe dem Ideal des adeligen Ritters und damit der feudalen Herrschaft insgesamt die Legitimation, so seine Schlussfolgerung. Das mag aus akademischer Vogelperspektive stimmen, sagt aber nichts über die verheerenden Folgen der Entmenschlichung des Krieges durch Massenvernichtungswaffen aus. Umgekehrt ist es gängige Praxis geworden, technische Innovationen fast schon reflexartig mit der moralischen Keule zu bearbeiten und in Bausch und Bogen zu verdammen, bevor ihr potenzieller Nutzen überhaupt klar ist. Hüten wir uns also vor vorschnellen Urteilen und wohlfeilem Alarmismus.
Die zu klärende Frage ist also: Wie intelligent sind Chatbots wirklich? Intelligenz ist ein originär menschliches Phänomen. Es passiert jedoch selten, dass ein Mensch auf die Frage nach seiner eigenen Intelligenz mit einem konkreten Koeffizienten aus einem Intelligenztest aufwarten kann. Die Selbsteinschätzung ist daher in der Regel eher verhalten. Meist schwankt sie um einen soliden Mittelwert. Kaum jemand möchte sich mit einem hohen Wert hervortun oder mit einem niedrigen Wert blamieren.
Hier laufen bereits höchst individuelle soziale Einflussfaktoren wie Scham und Bescheidenheit oder, anders herum, Prahlerei und Geltungssucht in die Selbstbewertung ein, die der KI (noch) fremd sind. Anders ist es mit sozialen Kompetenzen wie Empathie oder Diskriminierungsfreiheit, die von Künstlicher Intelligenz bereits versucht wird zu erlernen und nachzuahmen. Im Chatbot-unterstützten Kundendialog spielt beispielsweise die Bias-Freiheit, also die generelle Gleichbehandlung ungeachtet von Alter, Geschlecht, Herkunft, Religion, Status und mehr eine wichtige Rolle.
Aber zurück zur Intelligenzfrage. Was passiert, wenn KI-Anwendungen wie Chatbots ihr eigenes Intelligenzniveau einschätzen sollen? ChatGPT antwortet auf die Frage: „Wie intelligent sind Chatbots wirklich?“ mit: „Chatbots sind künstliche Intelligenzen, die darauf programmiert sind, bestimmte Aufgaben auszuführen, indem sie natürliche Sprache verwenden, um mit Benutzern zu interagieren. Beim zweiten Versuch eine Woche später heißt es dann: „Chatbots sind Programme, die darauf ausgelegt sind, menschenähnliche Konversationen zu führen und Fragen zu beantworten.“
Der Soziologe und Systemtheoretiker Niklas Luhmann würde diesen Befund wahrscheinlich als typische Form von Kontingenz analysieren. Die Offenheit und Ungewissheit, die er für private Lebenserfahrungen und soziale Systeme diagnostiziert hat, gilt offensichtlich auch für Künstliche Intelligenz und deren Anwendungen. Wahrheiten können und sollten wir von Chatbots deshalb auch gar nicht erwarten. Denn sie arbeiten eben nicht mit Wahrheiten, sondern mit Wahrscheinlichkeiten auf der Basis einer Unmenge von Daten. Deren Qualität, Aussagekraft und Wahrheitsgehalt kann tendenziell zwischen 0 und 100 Prozent oszillieren. Auch hier also bestenfalls ein solider Mittelwert. Mehr muss es aber auch gar nicht sein, weil allein die schiere dafür herangezogene Datenmenge für die Praxistauglichkeit und die Überlegenheit gegenüber der für einen Menschen in der gleichen Zeitspanne verfügbaren Datenbasis völlig ausreicht.
Chatbots denken (noch) nicht wie Menschen, künstliche Intelligenz folgt anderen Mustern. Die Lösung von komplexen, mehrstufigen und multidimensionalen Zielkonflikten, das Verständnis durch erfahrungsbasierte und transferierbare „Weltmodelle“ sowie Empathie bringt der aktuelle Stand der KI nicht mit. Sie sind Reiz-Reaktions-Maschinen, und für ihre jeweiligen Einsatzzwecke reicht das völlig aus.
Im Umkehrschluss bedeutet das: Die Verantwortung tragen nach wie vor wir Menschen. Auf der Ebene der Algorithmen und Trainingsdaten sind das die Data Scientist und KI-Experten, auf der Ebene der Anwendungen und deren Auswirkungen sind wir das alle.
Florian Lauck-Wunderlich
ist Senior Project Delivery Leader bei Pegasystems.
Bau- und Fertigungsspezialist investiert in die S/4HANA-Migration und geht mit RISE WITH SAP in die…
Trends 2025: Rasante Entwicklungen bei Automatisierung, KI und in vielen anderen Bereichen lassen Unternehmen nicht…
DHL Supply Chain nutzt generative KI-Anwendungen für Datenbereinigung und präzisere Beantwortung von Angebotsanforderungen (RFQ).
Marke mtu will globale Serviceabläufe optimieren und strategische Ziele hinsichtlich Effizienz, Nachhaltigkeit und Wachstum unterstützen.
IT-Infrastruktur-Trends 2025: Open-Source-Projekte sowie aufwändige regulatorische und Pflichtaufgaben werden das Jahr prägen.
IT-Systeme werden vor Ort in einem hochsicheren IT-Safe betrieben, ohne auf bauliche Maßnahmen wie die…