EU AI Act: Unternehmen sehen Hindernis für die KI-Entwicklung
Aktuelle Befragung von Deloitte zeigt eine deutliche Verunsicherung bei der Einschätzung der neuen Verordnung.
Viele Unternehmen sind sich der konkreten Auswirkungen noch nicht bewusst und haben keine klare Vorstellung, wie sie mit den Vorgaben umgehen sollen. Die Skepsis überwiegt, nur eine Minderheit der Unternehmen beschäftigt sich schon intensiv mit der neuen Gesetzeslage.
Mit der Ratifizierung des EU AI Act hat sich die Lage für europäische Firmen grundlegend geändert: Die regulatorischen Vorgaben sind für alle EU-Länder verpflichtend und müssen zumeist in den kommenden zwei Jahren umgesetzt werden. Mit einem Aufschub der Anforderungen oder Strafverschonung bei Verstößen können weder europäische Unternehmen noch die Anbieter von außerhalb der EU rechnen, sobald ihre KI-Anwendungen im EU-Territorium eingesetzt werden.
“Zögern in der Auseinandersetzung mit dem EU AI Act ist gefährlich”, sagt Till Contzen, Partner im Tax- und Legal-Bereich bei Deloitte. “Die Umsetzung der Anforderungen wird je nach Umfang der KI-Nutzung in einem Unternehmen einen erheblichen Aufwand mit sich bringen – zumal viele Organisationen nicht einmal wissen, wieviel KI sie genau nutzen.” Es drohe eine Situation vergleichbar mit der Umsetzung der DSGVO, als die Unternehmen im Mai 2018 vor einer riesigen Aufgabe standen, da sie die zwei Jahre Übergangsfrist kaum genutzt hatten.
Bei Nichteinhaltung drohen harte Strafen
Fraglich aber, ob vergleichbare Versäumnisse der Firmen beim EU AI Act vor dem Hintergrund der rasanten Entwicklung der KI-Technologien von den Aufsichtsbehörden verziehen wird. Die drohenden Bußgelder sind erheblich: Verstöße gegen den EU AI Act werden mit hohen Geldstrafen geahndet, zudem verzögert sich der Einsatz von KI in diesen Unternehmen, was erhebliche negative Auswirkungen auf die Geschäftsentwicklung haben kann.
“Dass sich rund die Hälfte der Unternehmen noch nicht intensiv mit der Vorbereitung auf die Umsetzung beschäftigt hat, spiegelt wider, dass viele Unternehmen in Deutschland das Thema KI noch nicht auf der Tagesordnung haben”, bestätigt Sarah Becker, die das Thema Digital Ethics bei Deloitte betreut. “Andererseits hat der EU AI Act wie bisher kaum eine andere Regulatorik den Sprung in die deutschen Boardrooms geschafft. Gerade in hoch-regulierten Branchen wie z.B. dem Finanzsektor oder dem Gesundheitssektor sind deutsche Unternehmen gewohnt, dass Regulatorik in Compliance-Prozesse und -Systeme überführt wird und fester Bestandteil ihrer Rahmenbedingungen auch für Innovationen ist.”
Neues Gesetz wird von großer Unsicherheit begleitet
Grundsätzlich zeigt sich bei der von Civey durchgeführten Deloitte-Umfrage große Skepsis gegenüber dem neuen Regelwerk. Vor allem beim Thema Rechtssicherheit ist das Bild uneinheitlich: So versprechen sich 39 Prozent der Befragten mehr Rechtssicherheit im Umgang mit Künstlicher Intelligenz, rund 35 Prozent verneinen dies, während ein Viertel keinen großen Unterschied sieht.
Ein ähnlich heterogenes Bild zeigt sich bei der Frage, ob der AI Act zu eher mehr oder eher weniger Vertrauen in Künstliche Intelligenz führen wird: Hier glaubt rund ein Drittel (34,9%) an einen positiven Effekt, fast ebenso viele (30,8%) können das nicht erkennen. Im Gegenteil – fast die Hälfte der Befragten (47,4%) sieht in dem AI Act eher ein Hindernis bei der Entwicklung und Einführung von Anwendungen auf Basis von Künstlicher Intelligenz im Unternehmen, nur ein Viertel (24,1%) ist überzeugt, dass die neue Regulatorik dabei helfen wird.
Die Folgen dieser Skepsis sind deutlich messbar: Obwohl der AI Act seit Anfang August in Kraft ist, haben sich 48,6 Prozent der befragten Unternehmen noch nicht intensiv auf die Umsetzung vorbereitet; gerade mal 26,2 Prozent sind tiefer in das Thema eingedrungen. Dennoch fühlen sich 35,7 Prozent der Befragten gut dafür gewappnet, den AI Act umzusetzen, 19,4 Prozent sehen sich eher schlecht vorbereitet. Entsprechend fürchten 52,3 Prozent eine Einschränkung ihrer Innovationsmöglichkeit im Bereich KI durch die Regulierung; nur 18,5 Prozent glauben, dass die Verordnung die Innovationsmöglichkeiten positiv beeinflusst.
Gesetzlicher Rahmen unerlässlich für Vertrauen in KI
“Die teils wohl bewusst unklaren Regelungen des AI Act machen eine Auslegung tatsächlich nicht immer leicht”, erklärt Contzen. “Allerdings ist dies ein Fortschritt gegenüber den Schwierigkeiten eines unregulierten Zustandes, in dem die Grenzen nur erahnt werden können und die Unternehmen und die Industrie auf sich allein gestellt sind.” Es gebe eine hohe Erwartungshaltung der Bevölkerung an die Vorteile von KI-Nutzung, zugleich aber auch große Sorge vor den negativen Effekten, ergänzt Becker.
“Durch eine angemessene Regulierung kann zwar Vertrauen hergestellt werden, gleichzeitig besteht die Gefahr, die Innovationskraft zu schwächen. Die Grenzen der Regulierung werden sich aufgrund der vielen auslegungsbedürftigen Regelungen erst noch zeigen müssen. Grundsätzlich jedoch wirkt eine Regulierung allein durch das Setzen eines Rahmens erst einmal vertrauensbildend. Insofern führt an einer Berücksichtigung ethischer und juristischer Konsequenzen bei KI-Innovation kein Weg vorbei.”