KI-Regulierung: Selbstverantwortung statt Fremdgestaltung
Klare Leitplanken für den verantwortungsbewussten Umgang mit – generativer – KI sollten Unternehmen sich aus Eigeninteresse selbst setzen, sagt Erik Dörnenburg von Thoughtworks.
Denn hoch auf der Risiko-Liste stehen etwa die „Halluzinationen“ von Sprachmodellen oder die Verstärkung unbewusster Vorurteile durch unausgewogene Trainingsdaten. Hier ist menschliches Prüfen daher unabdingbar, denn blindes Vertrauen in die KI kann fatale Folgen haben. Und Unternehmen können es sich heute weniger denn je erlauben, negativ aufzufallen.
Unternehmen stehen unter Beobachtung
In den vergangenen Jahren haben viele Unternehmen Technik zum Nachteil von Verbrauchern und Unternehmenskunden ausgenutzt. So beeinflusste beispielsweise die ehemalige Beratung Cambridge Analytica den US-Wahlkampf 2016, indem sie anhand von Facebook-Daten hochdetaillierte Persönlichkeitsprofile erstellte und auswertete. Auch der „Diesel-Skandal“ fällt in diese Kategorie. Hier bauten VW und weitere Autohersteller eine illegale Abschaltvorrichtung in ihre Fahrzeuge ein, die im Teststand erheblich geringere Abgaswerte als im realen Fahrbetrieb aufwies.
Einheitliche Standards für KI-Anbieter setzen
Diese Umstände haben Verbraucher misstrauisch gemacht, wie eine kürzlich durchgeführte repräsentative Umfrage im Auftrag von Thoughtworks zeigt: Nach den Erfahrungen der Befragten in Deutschland können oder wollen sich Unternehmen nicht in einem angemessenen Umfang selbst regulieren. Daher halten 84 Prozent eine KI-Regulierung für sinnvoll. Mehr als die Hälfte der Befragten in Deutschland geht sogar davon aus, dass Unternehmen selbst eine gut gemachte Gesetzgebung umgehen würden. Sie befürchten insbesondere, dass Unternehmen ihre Daten unzureichend vor Cyberangriffen und -verletzungen schützen oder unerlaubt an Dritte weitergeben. Eine Regulierung hat deshalb zur Aufgabe, einheitliche Standards zu setzen und KI-Anbieter sowie -Nutzende zur Einhaltung zu verpflichten.
EU AI Act: Nachbesserungen erforderlich
Genau diese Eigenschaft sehen wir bei dem derzeitigen Entwurf des EU AI Acts noch nicht im notwendigen Maß berücksichtigt. Die aktuellen Regeln fußen auf dem technischen Stand von Ende 2022. Im letzten Jahr hat sich die Technologie allerdings so stark weiterentwickelt, dass hier eine erhebliche Lücke entsteht. Zudem fehlt bisher eine eindeutige Definition dessen, was unter die zu regulierende KI fällt – auch im AI Act. Die Medizintechnik könnte hier als Vorbild dienen: Für technische Geräte gibt es eine Reihe von Normen. Sie definieren, unter welchen Voraussetzungen ein technisches Gerät als „Medizintechnik“ gilt. Ein ähnliches Herangehen ist auch für eine effektive KI-Regulierung sinnvoll.
Tempo aufnehmen
Solange es in dieser Hinsicht noch Ungewissheit gibt, sollten Unternehmen, die KI einsetzen, und solche, die KI entwickeln und anbieten, versuchen, das Verbrauchervertrauen eigenständig zurückzugewinnen. Denn generell sehen die Menschen großes Potenzial in GenAI: In der bereits erwähnten Studie äußerten 83 Prozent der Befragten aus Deutschland die Meinung, dass Unternehmen mithilfe von Gen AI innovativer werden und die Kundenerfahrung verbessern können. Unternehmen sind deshalb gut beraten, rechtzeitig zu agieren. Dazu gehört einerseits, so früh wie möglich den Umgang mit KI transparent zu dokumentieren und offenzulegen, und andererseits, interne Standards für einen verantwortungsbewussten Umgang mit Technologie zu etablieren.
Das lohnt sich in doppelter Hinsicht, denn zum Einen können Unternehmen mit diesem Ansatz die Verbraucher eher für sich gewinnen. 85 Prozent der Studienteilnehmer in Deutschland würden eher bei einem Unternehmen kaufen, das für einen transparenten und fairen Umgang mit GenAI steht. Darüber hinaus bereiten sich solche Unternehmen bereits durch interne Standards auf einen verantwortungsvollen Umgang mit KI vor.
Vertrauen als strategischer Vorteil
Die Politik unternimmt erste Schritte in Richtung Regulierung und versucht, Innovation und Vorsichtsmaßnahmen auszubalancieren. Doch die aktuellen Vorgaben bedürfen noch Optimierungen, um ihren Zweck zu erfüllen. Andernfalls sind sie zum Geltungsdatum bereits überholt und ungeeignet, um Klarheit und Sicherheit zu schaffen.
Technologieverantwortliche sollten sicherstellen, dass Unternehmen ihre Verantwortung zur Eindämmung von KI-Risiken wahrnehmen. Das ist nicht nur aus ethischer, sondern auch aus wirtschaftlicher Sicht empfehlenswert. Denn: Wenn sie diese Aufgabe anderen überlassen, entgeht ihnen ein klarer Wettbewerbsvorteil durch ein transparentes und selbstregulierendes Verhalten.
Zeit zu handeln
Es gibt in dieser Hinsicht bereits einige positive Entwicklungen. Beispielsweise bilden sich immer mehr Initiativen, Forschungsgruppen und Gremien mit dem Ziel, eine verantwortungsvollere KI zu entwickeln. Die UN hat etwa bereits einen Leitfaden für einen verantwortungsbewussten Umgang mit Technologie vorgelegt und frei verfügbar öffentlich zugänglich gemacht. Es wird sich zeigen, ob Technologieunternehmen aus der Vergangenheit gelernt haben und ein verantwortungsbewusstes Handeln aufweisen. Interne KI-Standards einzuführen, zu testen und zu etablieren, ist nun das Gebot der Stunde.
Erik Dörnenburg
ist Software Engineer und CTO Europe bei Thoughtworks.