Apple sucht in Nutzerbibliotheken künftig nach Kinderpornografie
Die Scans erfolgen auf iPhones und iPads. Apple gleicht Fotos von Nutzern mit einer Datenbank bekannter kinderpornografischer Inhalte ab. Laut Apple ist das Verfahren so optimiert, dass es nicht zu False Positives kommt.
Apple hat neue Funktionen vorgestellt, die die Sicherheit von Kindern verbessern sollen. Sie werden bis Ende des Jahres mit Softwareupdates verteilt – anfänglich nur in den USA und später auch in weiteren Regionen. Wie MacRumors berichtet, wird Apple künftig auch die Fotos seiner Nutzer scannen, um Kinderpornografie aufzuspüren.
Diese Funktion wird demnach mit iOS 15 und iPadOS 15 eingeführt. Alle Fotos, die zu iCloud hochgeladen werden, prüft Apple auf Inhalte, die auf einen möglichen sexuellen Missbrauch von Kindern hindern. Alle Funde sollen dann, zumindest in den USA, an das National Center for Missing and Exploited Children (NCMEC) weitergeleitet werden, das wiederum mit Strafverfolgungsbehörden zusammenarbeitet.
Der eigentlich Scan erfolgt laut Apple nicht in der Cloud, sondern auf den Geräten der Nutzer. Die dort gespeicherten Fotos werden mit einer Datenbank mit Hash-Werten bekannter kinderpornografischer Bilder verglichen, die von der NCMEC und andere Kinderschutzorganisationen bereitgestellt wird. Zu diesem Zweck soll die Datenbank in nicht lesbare Hash-Werte umgewandelt werden, die dann ebenfalls auf dem Gerät eines Nutzers abgelegt werden. Das Verfahren soll laut Apple auch die Privatsphäre von Nutzern schützen.
“Der Hauptzweck des Hashes ist es, sicherzustellen, dass identische und visuell ähnliche Bilder denselben Hash ergeben, während Bilder, die sich voneinander unterscheiden, unterschiedliche Hashes ergeben”, zitiert MacRumors aus einem Whitepaper von Apple. “So wird beispielsweise ein Bild, das leicht beschnitten, in der Größe verändert oder von Farbe in Schwarz-Weiß umgewandelt wurde, als identisch mit dem Original behandelt und hat denselben Hashwert.”
Kommt es zu einer Übereinstimmung, wird ein kryptografischer Voucher erstellt und zusammen mit dem Bild auf iCloud hochgeladen. Eine manuelle Überprüfung findet allerdings erst statt, wenn die Zahl der “Treffer” eine nicht genannte Schwelle überschreitet. Erst danach soll jeder Fund geprüft, und falls bestätigt, an das NCMEC weitergegeben werden. Die Schwelle soll laut Apple sicherstellen, dass Nutzerkonten nicht fälschlicherweise als Besitzer von Kinderpornografie eingestuft werden.
Darüber hinaus warnt Apples Messages-App künftig beim Versand und beim Empfang von Bildern mit eindeutig sexuellen Inhalten. Die Erkennung soll ebenfalls auf dem Gerät erfolgen. Unter anderem ist die als Communication Safety bezeichnete Funktion in der Lage, an Kinder gerichtete Fotos mit sexuellen Inhalten vor der Zustellung unkenntlich zu machen. Eltern können zudem je nach Alter des Kinders festlegen, dass sie benachrichtigt werden, falls ihr Kind versucht auf Nachrichten mit anstößigen Bildern zuzugreifen.
Auch diese Funktion integriert Apple in iOS 15 und iPadOS 15, und auch in macOS Monterey. Sie ist allerdings nur für Konten aktiv, die in iCloud als Familie eingerichtet wurden. Apple betonte, dass Nachrichten weiterhin Ende-zu-Ende verschlüsselt sind und Apple nicht auf Inhalte zugreifen kann.