Microsoft hat angekündigte, einige Funktionen aus seinen Artificial-Intelligence-Diensten zu entfernen. Damit will das Unternehmen sicherstellen, dass seine Technologien für Gesichtserkennung die eigenen ethischen Richtlinien für künstliche Intelligenz erfüllen. Neuen Nutzern stehen die fraglichen Funktionen ab dieser Woche nicht mehr zur Verfügung – vorhandene Nutzer verlieren den Zugriff innerhalb eines Jahrs.
Allerdings können Neukunden ab sofort den Zugang zu den Gesichtserkennungsfunktionen des Azure Face Application Programming Interface sowie von Computer Vision und Video Indexer beantragen. Vorhandene Kunden haben ein Jahr Zeit, einen Antrag zu stellen, damit sie nicht den Zugriff auf die Gesichtserkennungsfunktionen verlieren. Das Verfahren soll für eine zusätzliche Prüfung sorgen und die Gesichtserkennungsdienste an den Responsible AI Standard des Unternehmens anpassen. Ab 30. Juni 2023 sollen nur noch von Microsoft geprüfte Apps die Funktionen zur Gesichtserkennung nutzen können.
Einige Aspekte der Gesichtserkennung sind von der neuen Regulierung ausgenommen. Dazu gehören die Funktionen zur Erkennung von Unschärfe, Belichtung, Brillen, Kopfhaltung, Rauschen und Sehenswürdigkeiten.
Ausnahmen für Menschen mit Behinderungen
Nicht mehr verfügbar sind indes die Funktionen, die die Stimmung einer Person oder Eigenschaften wie Geschlecht, Alter, Lächeln, Gesichtsbehaarung und Makeup erkennen können. Microsoft stellt deren Nutzung aufgrund von Datenschutzbedenken infrage. Auch sei ein Missbrauch dieser Funktionen möglich, um beispielsweise Nutzer zu diskriminieren. Neukunden stehen sie demnach ab sofort nicht mehr zur Verfügung. Für vorhandene Kunden gilt die Regelung ab 30. Juni 2023. Ausnahmen gibt es nur für die Integration in Dienste, die auf Menschen mit Behinderungen ausgerichtet sind wie die Seeing-AI-App des Unternehmens.
Zudem verweist Microsoft auf Werkzeuge und Ressourcen wie Open-Source-Paket Fairlearn sowie das hauseigene Fairness Dashboard, um mehr über den fairen Umgang mit den Azure Cognitive Services zu erfahren. Eine neue Programmierschnittstelle namens Recognition Quality soll zudem mögliche Probleme bei der Nutzung von AI zur Verbesserung der Qualität von Fotos erkennen, die bestimmte demografische Gruppen mehr betreffen als andere.
Autonom agierende Agenten werden Sicherheitsteams bei der Angriffsabwehr unterstützen, sagt Zac Warren von Tanium.
Schweden hat in seiner Entwicklung hin zu einer bargeldlosen Gesellschaft einen überraschenden Rückzieher gemacht. Diese…
"Uns geht es vielmehr darum aufzuzeigen, wie Open-Source-KI realisierbar ist", sagt Jan Wildeboer von Red…
"Wir haben in unserem SOC den Level 1-Support vollständig automatisiert", sagt Thomas Maxeiner von Palo…
Das Bewusstsein für die Bedeutung von Diversität wächst, doch der Fortschritt bleibt zäh, obwohl gemischte…