Sind Algorithmen Diskriminierungs-Booster?
Die zwei Fragen sind einfach und hart zugleich: Wenn nur junge weiße Männer unsere Computerwelten kreieren – schaffen diese dann ein Universum, in der Frauen und nicht-weiße Menschen nicht angemessen vorkommen? Und ist es im Jahr 2022 tatsächlich immer noch so, dass vor allem junge weiße Männer als Entwickler und Designer von Algorithmen und KI-Systemen verantwortlich sind?
Die Antworten auf die Fragen sind grundsätzlich einfach: ja. Hört man sich in der Fachszene und auf höchster politischer Ebene um, so ist das Thema „Gender Equality in der KI“ ein mehr als heißes Thema. Denn sowohl Firmen, die Produkte und Dienstleistungen anbieten, als auch Wissenschaft und Politik sind sich klar darüber, dass es bei der Entwicklung von anwendungsbezogener KI große Veränderungen in der Arbeit der Teams geben muss. Denn Algorithmen werden mehr und mehr Einfluss auf unseren Alltag haben. Und es ist tatsächlich so, dass sie die menschliche Lebenswirklichkeit nur unzureichend abbilden.
Weiße Männergesichter werden Bei KI besser erkannt als Frauen und dunklere Menschen
So machte die EU in einem Papier mit dem Namen „Gender & Intersectional Bias in Artificial Intelligence“ schon im Jahr 2020 im großen Stil darauf aufmerksam, dass Gesichtserkennungs-Systeme Männergesichter besser als Frauengesichter entschlüsseln. Hinzu kommt, dass dunklere Haut schlechter erkannt wird als weiße. Die Fehlerraten reichten in der von der EU zitierten Untersuchung von 35 Prozent bei dunkleren Frauen zu 12 Prozent bei dunkleren Männern. Die Fehlerraten lagen bei helleren Frauen bei 7 Prozent – im Gegensatz dazu lagen sie bei helleren Männern nur bei 1 Prozent. Die Forderung der EU ist, dass die die Algorithmen kreierenden Menschen entsprechend geschult werden müssen, um diese Ungerechtigkeiten abzustellen und diverse Teams dafür sorgen, dass wichtige Koordinaten aller Menschen eingebaut werden.
Eine weitere Baustelle gibt es bei virtuelle Assistenzsystemen wie Siri und Alexa, die den Alltag von zunehmend vielen Nutzern prägen – gerade in der jungen Generation. „Chatbots sind gewöhnlich so programmiert, dass sie auf sexuelle Belästigungen in einem flirtenden, entschuldigenden Ton oder ablenkenden Antworten reagieren“ – so das Fazit der EU-Autoren. Untersuchungen wiesen darauf hin, dass solche Antworten das Stereotyp von Frauen in unterordneten Servicerollen fortsetzen – und eine Kultur der Gewalt gegen Frauen fördern, weil sie dadurch indirekte Mehrdeutigkeit als gültige Antwort auf harassment präsentieren, weil sie nicht auf Angriffe entsprechen reagieren.
KI als Treiberin des Sexismus
Asena Soydaş arbeitet im Projekt „Ethik der Algorithmen“ bei der Bertelsmann Stiftung und beschäftigt sich mit dem Thema digitalisierte Gesellschaft. Sie erklärt: „Wir wissen, dass es in den Firmen aus dem Silicon Valley und Deutschland tatsächlich so ist, dass durchschnittlich nur 20 Prozent Frauen im IT- Bereich arbeiten, der Anteil weiblicher IT-Kräfte bei Google, Amazon und Facebook liegt nicht einmal bei 20 Prozent.“
Beispiele für konkrete negative Folgen bei der Entwicklung von KI in nicht-diversen Teams gibt es laut Asena Soydaş genug. Exemplarisch nennt auch sie unterwürfig programmierte Spracherkennungssysteme wie Alexa: „Eine Frau im Team würde nicht darauf kommen, dass ein System auf sexistische Beleidigungen geschmeichelt reagiert“. Ebenso erinnert sie an den Fall, dass bei Amazon im Jahr 2018 durch ein algorithmenbasiertes Instrument in der Testphase bei der Personaleinstellung männliche Bewerber gegenüber Frauen auffällig oft bevorzugt wurden. Eine zentrale Ursache des Problems lag darin, dass frühere, nicht algorithmen-basierte Einstellungen als Grundlage für die neuen Entscheidung genutzt wurden. Die Unterrepräsentation von Frauen in der IT-Branche hat sich dann im Trainingsdatenset widergespiegelt. Die diskriminierenden Einstellung wurden damit durch den Algorithmeneinsatz reproduziert und skaliert. Amazon habe das Verfahren dann offiziell eingestellt.
Als weiteres Beispiel für Diskriminierung durch in Algorithmen eingebaute Stereotypen nennt die Expertin klassische Online-Übersetzungsprogramme. „Wenn Sie etwa versuchen, aus genderneutralen Sprachen wie dem Türkischen ins Englische zu übersetzen, wird aus dem neutralen Koch eine Verbindung mit dem weiblichen Pronomen she – also: she ist a cook. Bei Ingenieuren wird automatisch die männliche Form mit dem Wort he benutzt.“ Auch Krankenpflegerinnen erschienen durch die Algorithmen immer als weiblich, Ärzte als männlich.
Für eine neue Ethik der Algorithmen
Die Bertelsmann-Stiftung hat für die Weiterentwicklung der Algorithmen im Sinne von Diversität ein Fellowship Programm aufgelegt, in dem Alternativen zu weiblichen Sprachsystemen wie Cortana, Siri und Alexa entwickelt werden. Im Rahmen des „The New New“-Fellowships, das die Stiftung gemeinsam mit dem gemeinnützigen Superrr Lab initiiert hat, haben 24 Vordenker:innen aus ganz Europa Visionen für inklusivere digitale Zukünfte erarbeitet. In zwei Projekten erforschen die Fellows von [multi’vocal] und „Syb – Queering voice AI“, wie durch synthetische Stimmen und queere Interfaces die binäre Weltsicht um inklusive Perspektiven bereichert werden kann. „Grundsätzlich ist es entscheidend, dass bei der Entwicklung der KI die Entwicklerinnen und Entwickler ein klares Wirkungsziel vor Augen haben und sich im Prozess bewusst sind, was die Nebenwirkungen sein können“, sagt Asena Soydaş. „KI muss in ihrer Entstehung für alle transparenter und nachvollziehbarer werden, denn sie betrifft uns alle, jeden Tag!“
Auch Experten des österreichischen Instituts für Wirtschafts- und Innovationsforschung Joanneum Research schreiben in einem Bericht aus dem Februar 2020, dass KI auf vielfache Weise mit Diskriminierungen verschränkt sei. Grund dafür könnten fehlende Diversität in Entwicklungsteams sein, da dadurch Stereotype nicht hinterfragt würden. Folgen könnten auch Verzerrungen in den Daten (Daten-Bias) selbst sein und falsche Rückschlüsse, die selbstlernende Systeme aufgrund von nicht repräsentativen Fällen ziehen. „Wenn man sich ansieht, von wem Technologien im Bereich der KI entwickelt werden, zeigt sich ein erschreckendes Bild“: Nur 15% der Autor*innen bei führenden Fachkonferenzen seien Frauen, bei Google (10%) und Facebook (15%) gibt es kaum Frauen in der KI-Forschung und auf LinkedIn finden sich nur 22% Frauen mit Expertise in KI. In Bezug auf ethnische Diskriminierung sei die Ungleichheit noch um einiges größer. So war beispielsweise die Gründerin des Netzwerks „Black in AI“ 2016 eine von nur sechs schwarzen Teilnehmenden auf einer der führenden AI-Konferenzen mit über 8.500 Besucher*innen.
Wie kommt es eigentlich zu verzerrten Daten?
Das kann zum Beispiel passieren, wenn ein bereits bestehender sogenannter Bias, eine falsche Annahme oder ein Vorurteil in der Technologie bestätigt wird. Als Beispiel dafür nennen die Autoren von Joanneum Research die Planung von Polizeieinsätzen. In diesem Fall wurde KI dazu verwendet, Kontrollgänge von Polizisten und Polizistinnen anhand von Echtzeitdaten zu planen. Es sei laut den Autoren allerdings bekannt, dass sich die Vorurteile von Polizisten und Polizistinnen geographisch und in der Fallzahl niederschlagen: Sie kontrollieren verstärkt manche Gebiete und verhaften dort dann auch mehr Personen. „Wenn der Algorithmus nun aus diesen Daten lernt, wird er diese Gebiete als gefährlicher identifizieren: nicht, weil sie objektiv gesehen gefährlicher sind, auch nicht, weil der Algorithmus diskriminierend programmiert wurde, sondern weil er auf Basis der Vorurteile der diskriminierend agiert und diese Diskriminierung reproduziert.
Augen auf: Benachteiligung nach Geschlecht
Ein klassisches Problem bei der Benachteiligung von Geschlecht kann ein Algorithmus zur Selektion von Bewerbungen sein, der eine Benachteiligung nach Geschlecht reproduziert – wenn dieser Algorithmus etwa mit Bewerbungsdaten der letzten zehn Jahre befüllt wird, sogenannten historischen Daten. Wenn das Unternehmen in den letzten zehn Jahren etwa nur Frauen eingestellt hat, lernt der Algorithmus, dass Frauen besser zur Firma passen und benachteiligt Männer. „Auch wenn die Datengrundlagen ideal und die programmierten Algorithmen selbst inklusiv gestaltet sind, kann ein selbstlernendes KI-System darüber hinaus auch diskriminierendes Verhalten entwickeln“, warnen die Joanneum-Forscher. Ein Beispiel dafür ist ein Chatbot, der rassistische, sexistische und antisemitische Aussagen traf. Zwar war der Algorithmus nicht dafür programmiert oder trainiert, Nutzerinnen und Nutzer des rechtsextremen Portals 4chan haben ihn aber durch hasserfüllte Sprache manipuliert.
Virtual Reality: Frauen reagieren stärker mit Gesundheitsproblemen als Männer
Eine große Baustelle für die Anwendung von Gender Equality wird künftig der ganze Bereich von Virtual Reality sein – ein Markt, der durch die Ankündigung von Facebook-Gründer Mark Zuckerberg, der sein Unternehmen unter der neuen Marke „Meta“ in eine neue VR-Ära führen will, stark expandieren wird. Die EU machte im Paper „Gender & Intersectional Bias in Artificial Intelligence“ darauf aufmerksam, dass Frauen sich bei der Anwendung von Virtual Reality bisher sehr viel unwohler als Männer fühlen und darauf häufiger als diese mit Symptomen wie Blässe, Schweißausbrüchen, Herzrasen und Disorientierung reagieren. Die Forderung der EU ist auch hier, diese VR-Technologien genauso an Frauen wie an Männern zu testen und eine Gender Balance in Entwicklungs- und Design-Teams von VR- und AI-Anwendungen zu sichern.
Dass diese Forderung nach Gender Equality kein untergeordnetes politisches Spielfeld ist, sondern entscheidend für die Stabilität von westlichen Gesellschaften und ihrer wirtschaftlichen Prosperität, wird von oberster politischer Ebene offiziell immer wieder verkündet. So hat Ursula von der Leyen im Februar 2021 das ethisch bewusste Design von Algorithmen als eines der großen Themen für die Politik der EU in der Digitalisierung ausgegeben. „Ich möchte ein digitales Europa, das das Beste Europas widerspiegelt: offen, fair, vielfältig, demokratisch und selbstbewusst“, sagte die EU-Kommissionschefin. „Wir möchten, dass die Bürger den neuen Technologien vertrauen.“ Datensets in sensiblen Bereichen wie dem Gesundheitssektor sollten von Behörden geprüft und zertifiziert werden. Ausdrücklich wird eine ethisch geprägte Entwicklung von KI nicht nur als vertrauensbildende Maßnahme gesehen, sondern auch als Wettbewerbsvorteil. Die Vertreter der Politik sehen nicht nur negative soziale, sondern auch wirtschaftliche Konsequenzen, wenn die Zusammensetzung von Entwicklungsteams nicht geändert wird: Nur so können Kreativität, Business Opportunities, Verständnis der Bedürfnisse von Konsumenten, bessere Dienstleistungen und Produkte entstehen.
Wie beim Klima wurden konkrete Ziele für den digitalen Raum ausgegeben: Bis 2030 soll laut den aktuellen Digitalzielen der EU-Kommission eine Art Grundrechtskatalog im digitalen Raum entstehen: Danach sollen nicht nur alle Bürger Zugang zum Internet und zu Onlinedienstleistungen haben, sondern bei Algorithmen neben Gender ethnische Herkunft, Alter, sozioökonomischer Status, sexuelle Orientierung, geografische Verrottung und Behinderungen einbezogen werden.
Was wissen die Europäer überhaupt über Algorithmen und Gender Equality?
In einer repräsentativen Bevölkerungsumfrage „Was Europa über Algorithmen denkt“ der Bertelsmann-Stiftung aus dem Jahr 2019 kam heraus, dass die algorithmische Revolution unseres Alltags im Bewusstsein der Bürger wenig bewusst ist: 48 Prozent der europäischen Bevölkerung wissen nicht, was ein Algorithmus ist. Auch ist weniger als der Hälfte der europäischen Bevölkerung bekannt, dass Algorithmen bereits in vielen Lebensbereichen eingesetzt werden. Besonders niedrig sind dabei die Werte für Anwendungsfelder, wo Entscheidungen von Algorithmen potenziell folgenreich für die soziale Teilhabe sind, etwa bei der Kreditvergabe, der Bewerberauswahl und der medizinischen Diagnostik. Zudem tritt die europäische Bevölkerung Algorithmen mit gemischten Gefühlen entgegen. So assoziieren Europäerinnen und Europäer mit Algorithmen sowohl positive Aspekte wie Effizienz und Zeitersparnis als auch Negatives wie Angst oder das Risiko der Manipulation. Insgesamt überwiegt die optimistische Grundhaltung. Ebenso betonen Männer und Menschen mit einem höheren Bildungsabschluss stärker die Vorteile durch algorithmenbasierte Entscheidungsfindung. Fazit: Es bleibt viel zu tun, um analoge und virtuelle Welten durch die Anwendung von KI gerechter und die Menschen in ihnen erfolgreicher zu machen – gerade auch in Unternehmen.
Über Stefanie von Wietersheim
Die Kulturjournalistin Stefanie von Wietersheim liebt ihr digitales und analoges Leben in Paris und Niedersachsen – mit Papierbüchern, Designstreichhölzern, Orgelspielen und Halbmarathon-Training. Ab und zu ist sie als leidenschaftlicher iPhone-Junkie wegen Sehnenscheidenentzündung allerdings arbeitsunfähig, da sie Social Media für die beste Erfindung des Jahrhunderts hält. Die heute 51-Jährige studierte in Passau und Tours „Sprachen, Wirtschafts- und Kulturraumstudien“. Nach ihrem Zeitungsvolontariat bei der „Passauer Neuen Presse“ arbeitete sie für Tageszeitungen, Filmproduktion und Hochglanzmagazine. Ihre Bildbände „Frauen & ihre Refugien“, „Vom Glück mit Büchern zu leben“, und „Mütter & Töchter“ (Callwey-Verlag) wurden zu Bestsellern ihres Genres. In ihrem neuen Buch „Schön deutsch – Eine Entdeckungsreise“ (Verlag LiteraturWissenschaft) schreibt sie mit dem Soziologen Dirk Kaesler über Objekte, Orte, Rituale und Menschen in unserem Land. Stefanie von Wietersheim geht als Autorin der „Frankfurter Allgemeinen Sonntagszeitung“ regelmäßig auf Reportage“ – auch und gerade in Corona-Zeiten.