Categories: MobileSmartphone

Apple präzisiert Regeln für Erkennung von Missbrauchsfotos

Apple hat ein Support-Dokument veröffentlicht, das weitere Details zur geplanten Funktion für die Erkennung von Missbrauchsfotos auf Geräten von Apple-Nutzern enthält. Unter anderem erläutert das Unternehmen die Anforderungen an Sicherheit und Datenschutz sowie grundlegende Design-Prinzipien.

Vor allem soll das Dokument Bedenken ausräumen, die Bürgerrechtsorganisationen und Sicherheitsexperten nach Bekanntgabe von Apples Plänen geäußert hatten. Sie befürchten, dass das System von Regierungen auch zur Unterdrückung von Minderheiten benutzt werden kann.

Ab iOS 15 und iPadOS 15 sollen in Nutzerbibliotheken gespeicherte Fotos automatisch mit bekannten Bildern abgeglichen werden, die den sexuellen Missbrauch von Kindern zeigen. Der Abgleich soll zwar auf den Geräten der Nutzer erfolgen, nach einer gewissen Anzahl von Funden kinderpornografischer Bilder erfolgt jedoch über iCloud eine Meldung an Apple.

Diese Grenze liegt laut Apple nun anfänglich bei 30 Übereinstimmungen. Erst danach soll ein Konto als verdächtig markiert und einer manuellen Überprüfung durch einen Apple-Mitarbeiter unterzogen werden.

Des Weiteren stellte das Unternehmen aus Cupertino klar, dass in die Datenbank bekannter Missbrauchsfotos nur Bilder einfließen, die unabhängig voneinander von mindestens zwei Kinderschutzorganisationen eingereicht wurden, die sich zudem in unterschiedliche Jurisdiktionen befinden beziehungsweise nicht unter der Kontrolle einer Regierung stehen dürfen. Soll will Apple offenbar vermeiden, dass Falschmeldungen entstehen und das repressive Staaten Fotos in die Datenbank einschleusen, über die Minderheiten oder Oppositionelle verfolgt werden können.

“Das System ist so konzipiert, dass der Nutzer weder Apple noch einem anderen Unternehmen oder gar einer Reihe von möglicherweise kollidierenden Unternehmen desselben Hoheitsgebiets vertrauen muss, um sicher sein zu können, dass das System wie angekündigt funktioniert. Dies wird durch mehrere ineinander greifende Mechanismen erreicht, darunter die inhärente Überprüfbarkeit eines einzigen Software-Images, das weltweit zur Ausführung auf dem Gerät verteilt wird, die Anforderung, dass alle in der verschlüsselten Datenbank auf dem Gerät enthaltenen Bild-Hashes unabhängig voneinander von zwei oder mehr Kindersicherheitsorganisationen aus unterschiedlichen Hoheitsgebieten bereitgestellt werden, und schließlich ein menschlicher Überprüfungsprozess, um fehlerhafte Berichte zu verhindern”, heißt es in dem Dokument.

Darüber hinaus kündigte Apple an, dass es einen Root-Hash der verschlüsselten Hash-Datenbank, die in jeder Version jedes Apple-Betriebssystems enthalten ist, das diese Funktion unterstützt, auf seiner Website veröffentlichen wird. Außerdem sollen Benutzer in der Lage sein, den Root-Hash der verschlüsselten Datenbank auf ihrem Gerät zu überprüfen und ihn mit dem erwarteten Root-Hash zu vergleichen. Hierzu nannte Apple jedoch keinen Zeitrahmen.

Stefan Beiersmann

Stefan unterstützt seit 2006 als Freier Mitarbeiter die Redaktionen von Silicon.de und ZDNet.de. Wenn andere noch schlafen, sichtet er bereits die Nachrichtenlage, sodass die ersten News des Tages meistens von ihm stammen.

Recent Posts

MILC: Web3-Infrastruktur für die digitale Content-Ökonomie

Die Medienwirtschaft durchlebt eine Phase struktureller Neuordnung. Geschäftsmodelle, die jahrzehntelang als stabil galten, stoßen an…

3 Stunden ago

5 Tipps: So wird die Dateninfrastruktur fit für das KI-Zeitalter

Die zunehmende Verbreitung von Künstlicher Intelligenz verändert die Art und Weise, wie wir Daten erzeugen,…

7 Stunden ago

BearingPoint: GenKI Analytics im Realitätscheck

GenKI bietet Potenzial zur Effizienzsteigerung und Automatisierung datengetriebener Prozesse. Doch viele Unternehmen kämpfen mit strategischen,…

1 Tag ago

Prompt in Malware umgeht KI-basierte Bedrohungserkennung

Schadsoftware enthält Text im Code, der die KI-Modelle so beeinflussen sollte, dass sie ihn fälschlicherweise…

1 Tag ago

Gartner: Über 40 Prozent der Projekte mit agentischer KI werden bis Ende 2027 eingestellt

Gründe dafür sind unter anderem steigende Kosten, unklare wirtschaftliche Vorteile und unzureichende Maßnahmen zur Risikokontrolle.

2 Tagen ago

Ransomware: Fast jedes zweite Unternehmen zahlt

Der „State of Ransomware 2025“-Report von Sophos bestätigt eine durchschnittliche Lösegeldzahlung von 1 Million US-Dollar.

2 Tagen ago