Categories: KI

Ethische Standards für AI: Microsoft beschneidet Funktionen seiner Gesichtserkennung

Microsoft hat angekündigte, einige Funktionen aus seinen Artificial-Intelligence-Diensten zu entfernen. Damit will das Unternehmen sicherstellen, dass seine Technologien für Gesichtserkennung die eigenen ethischen Richtlinien für künstliche Intelligenz erfüllen. Neuen Nutzern stehen die fraglichen Funktionen ab dieser Woche nicht mehr zur Verfügung – vorhandene Nutzer verlieren den Zugriff innerhalb eines Jahrs.

Allerdings können Neukunden ab sofort den Zugang zu den Gesichtserkennungsfunktionen des Azure Face Application Programming Interface sowie von Computer Vision und Video Indexer beantragen. Vorhandene Kunden haben ein Jahr Zeit, einen Antrag zu stellen, damit sie nicht den Zugriff auf die Gesichtserkennungsfunktionen verlieren. Das Verfahren soll für eine zusätzliche Prüfung sorgen und die Gesichtserkennungsdienste an den Responsible AI Standard des Unternehmens anpassen. Ab 30. Juni 2023 sollen nur noch von Microsoft geprüfte Apps die Funktionen zur Gesichtserkennung nutzen können.

Einige Aspekte der Gesichtserkennung sind von der neuen Regulierung ausgenommen. Dazu gehören die Funktionen zur Erkennung von Unschärfe, Belichtung, Brillen, Kopfhaltung, Rauschen und Sehenswürdigkeiten.

Ausnahmen für Menschen mit Behinderungen

Nicht mehr verfügbar sind indes die Funktionen, die die Stimmung einer Person oder Eigenschaften wie Geschlecht, Alter, Lächeln, Gesichtsbehaarung und Makeup erkennen können. Microsoft stellt deren Nutzung aufgrund von Datenschutzbedenken infrage. Auch sei ein Missbrauch dieser Funktionen möglich, um beispielsweise Nutzer zu diskriminieren. Neukunden stehen sie demnach ab sofort nicht mehr zur Verfügung. Für vorhandene Kunden gilt die Regelung ab 30. Juni 2023. Ausnahmen gibt es nur für die Integration in Dienste, die auf Menschen mit Behinderungen ausgerichtet sind wie die Seeing-AI-App des Unternehmens.

Zudem verweist Microsoft auf Werkzeuge und Ressourcen wie Open-Source-Paket Fairlearn sowie das hauseigene Fairness Dashboard, um mehr über den fairen Umgang mit den Azure Cognitive Services zu erfahren. Eine neue Programmierschnittstelle namens Recognition Quality soll zudem mögliche Probleme bei der Nutzung von AI zur Verbesserung der Qualität von Fotos erkennen, die bestimmte demografische Gruppen mehr betreffen als andere.

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die Redaktionen von Silicon.de und ZDNet.de. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

Künstliche Intelligenz als Gamechanger

"Der wahre Mehrwert von KI entsteht durch die Integration unternehmenseigener Daten", sagt Mike Sicilia von…

2 Tagen ago

Verbrechensabwehr mit KI

Autonom agierende Agenten werden Sicherheitsteams bei der Angriffsabwehr unterstützen, sagt Zac Warren von Tanium.

3 Tagen ago

Schwedens Bargeld-Comeback: Ein unerwarteter Kurswechsel

Schweden hat in seiner Entwicklung hin zu einer bargeldlosen Gesellschaft einen überraschenden Rückzieher gemacht. Diese…

3 Tagen ago

Open Source und KI: Passt das zusammen?

"Uns geht es vielmehr darum aufzuzeigen, wie Open-Source-KI realisierbar ist", sagt Jan Wildeboer von Red…

4 Tagen ago

“Eine integrierte Plattform ermöglicht Vereinfachung bei höherer Qualität”

"Wir haben in unserem SOC den Level 1-Support vollständig automatisiert", sagt Thomas Maxeiner von Palo…

4 Tagen ago

Frauen in der IT: Der entscheidende Wettbewerbsvorteil

Das Bewusstsein für die Bedeutung von Diversität wächst, doch der Fortschritt bleibt zäh, obwohl gemischte…

5 Tagen ago