Sichere Umsetzung der KI-Verordnung
Im August ist der EU-AI Act in Kraft getreten. Betroffene Unternehmen müssen die neuen Regularien fristgerecht umsetzen, sonst drohen Strafzahlungen.
Das Gesetz soll EU-Bürger vor allem vor Risiken im Zusammenhang mit KI schützen und einen vertrauenswürdigen Einsatz von Anwendungen gewährleisten. 144 Seiten umfasst die Verordnung, welche KI-Anwendungen in vier Risikostufen einordnet und reguliert – von grundsätzlich verbotenen Praktiken, wie etwa dem ‘Social Scoring’, also der automatischen Bewertung von Menschen aufgrund von Sozialverhalten, Status oder persönlichen Merkmalen, über Hochrisikoanwendungen bis hin zu Systemen mit limitiertem oder minimalem Risiko.
Modulares Vorgehensmodell
Was genau bedeutet das für Unternehmen? “Wir begrüßen es, dass wir nun einen Rechtsrahmen für den Einsatz von KI haben«, sagt Maximilian Poretschkin, Teamleiter KI-Absicherung und Zertifizierung am Fraunhofer IAIS. “Gleichzeitig fehlt es – vergleichbar mit der Einführung der DSGVO – oftmals noch an Erfahrung, wie dieser für konkrete Use Cases anzuwenden ist.
Mit dem neuen “KI Governance und Qualitätsmanagement Framework” haben die Experten des Fraunhofer IAIS ein modulares Vorgehensmodell entwickelt: Ziel ist eine unternehmenseigene KI-Governance, die nicht nur ethischen und rechtlichen Anforderungen gerecht wird, sondern insbesondere auch KI-Anwendungen mit hoher Qualität, Zuverlässigkeit und Robustheit hervorbringt.
Umsetzung auf Organisations-, Prozess- und Systemebene
Die Umsetzung der Verordnung erfolgt auf drei Ebenen, die eng miteinander verflochten sind: auf Organisations-, Prozess- und Systemebene. Zunächst setzen die Fraunhofer-Experten in einem Workshop mit den jeweiligen Stakeholdern aus einem Unternehmen eine individuelle Roadmap für die Implementierung eines KI-Governance und Qualitätsmanagement Frameworks auf. Danach werden Anforderungen identifiziert, Ziele und Leitplanken für den Einsatz von KI definiert sowie Prozesse und Verantwortlichkeiten aufgesetzt und in eine KI-Governance integriert. Die darin enthaltenen Leitfäden zur Qualitäts- und Risikobewertung werden wiederum in den Entwicklungsprozess von KI-Systemen eingebettet und anhand von ersten Anwendungsbeispielen erprobt.
“Wir haben die Vorschriften aus der KI-Verordnung in verdaubare Kontrollen und Maßnahmen entlang des KI-Lebenszyklus eingeteilt”, sagt Lennard Helmer, Research Engineer für den KI-Entwicklungsprozess. “Insgesamt über 80 Kontrollen werden in den unterschiedlichen Phasen des jeweiligen Entwicklungsprozesses einer KI eingebunden. Auf der System-Ebene verknüpfen wir dann den MLOps-Prozess und das Risiko-Management mit einer metrikbasierten Auswertung von KI-Risiken. So kann künftig neben einer qualitativen auch eine quantitative Auswertung anhand messbarer Daten erfolgen.”