Apple hat ein Support-Dokument veröffentlicht, das weitere Details zur geplanten Funktion für die Erkennung von Missbrauchsfotos auf Geräten von Apple-Nutzern enthält. Unter anderem erläutert das Unternehmen die Anforderungen an Sicherheit und Datenschutz sowie grundlegende Design-Prinzipien.
Vor allem soll das Dokument Bedenken ausräumen, die Bürgerrechtsorganisationen und Sicherheitsexperten nach Bekanntgabe von Apples Plänen geäußert hatten. Sie befürchten, dass das System von Regierungen auch zur Unterdrückung von Minderheiten benutzt werden kann.
Ab iOS 15 und iPadOS 15 sollen in Nutzerbibliotheken gespeicherte Fotos automatisch mit bekannten Bildern abgeglichen werden, die den sexuellen Missbrauch von Kindern zeigen. Der Abgleich soll zwar auf den Geräten der Nutzer erfolgen, nach einer gewissen Anzahl von Funden kinderpornografischer Bilder erfolgt jedoch über iCloud eine Meldung an Apple.
Diese Grenze liegt laut Apple nun anfänglich bei 30 Übereinstimmungen. Erst danach soll ein Konto als verdächtig markiert und einer manuellen Überprüfung durch einen Apple-Mitarbeiter unterzogen werden.
Des Weiteren stellte das Unternehmen aus Cupertino klar, dass in die Datenbank bekannter Missbrauchsfotos nur Bilder einfließen, die unabhängig voneinander von mindestens zwei Kinderschutzorganisationen eingereicht wurden, die sich zudem in unterschiedliche Jurisdiktionen befinden beziehungsweise nicht unter der Kontrolle einer Regierung stehen dürfen. Soll will Apple offenbar vermeiden, dass Falschmeldungen entstehen und das repressive Staaten Fotos in die Datenbank einschleusen, über die Minderheiten oder Oppositionelle verfolgt werden können.
“Das System ist so konzipiert, dass der Nutzer weder Apple noch einem anderen Unternehmen oder gar einer Reihe von möglicherweise kollidierenden Unternehmen desselben Hoheitsgebiets vertrauen muss, um sicher sein zu können, dass das System wie angekündigt funktioniert. Dies wird durch mehrere ineinander greifende Mechanismen erreicht, darunter die inhärente Überprüfbarkeit eines einzigen Software-Images, das weltweit zur Ausführung auf dem Gerät verteilt wird, die Anforderung, dass alle in der verschlüsselten Datenbank auf dem Gerät enthaltenen Bild-Hashes unabhängig voneinander von zwei oder mehr Kindersicherheitsorganisationen aus unterschiedlichen Hoheitsgebieten bereitgestellt werden, und schließlich ein menschlicher Überprüfungsprozess, um fehlerhafte Berichte zu verhindern”, heißt es in dem Dokument.
Darüber hinaus kündigte Apple an, dass es einen Root-Hash der verschlüsselten Hash-Datenbank, die in jeder Version jedes Apple-Betriebssystems enthalten ist, das diese Funktion unterstützt, auf seiner Website veröffentlichen wird. Außerdem sollen Benutzer in der Lage sein, den Root-Hash der verschlüsselten Datenbank auf ihrem Gerät zu überprüfen und ihn mit dem erwarteten Root-Hash zu vergleichen. Hierzu nannte Apple jedoch keinen Zeitrahmen.
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…
Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…