Apple hat neue Funktionen vorgestellt, die die Sicherheit von Kindern verbessern sollen. Sie werden bis Ende des Jahres mit Softwareupdates verteilt – anfänglich nur in den USA und später auch in weiteren Regionen. Wie MacRumors berichtet, wird Apple künftig auch die Fotos seiner Nutzer scannen, um Kinderpornografie aufzuspüren.
Diese Funktion wird demnach mit iOS 15 und iPadOS 15 eingeführt. Alle Fotos, die zu iCloud hochgeladen werden, prüft Apple auf Inhalte, die auf einen möglichen sexuellen Missbrauch von Kindern hindern. Alle Funde sollen dann, zumindest in den USA, an das National Center for Missing and Exploited Children (NCMEC) weitergeleitet werden, das wiederum mit Strafverfolgungsbehörden zusammenarbeitet.
Der eigentlich Scan erfolgt laut Apple nicht in der Cloud, sondern auf den Geräten der Nutzer. Die dort gespeicherten Fotos werden mit einer Datenbank mit Hash-Werten bekannter kinderpornografischer Bilder verglichen, die von der NCMEC und andere Kinderschutzorganisationen bereitgestellt wird. Zu diesem Zweck soll die Datenbank in nicht lesbare Hash-Werte umgewandelt werden, die dann ebenfalls auf dem Gerät eines Nutzers abgelegt werden. Das Verfahren soll laut Apple auch die Privatsphäre von Nutzern schützen.
“Der Hauptzweck des Hashes ist es, sicherzustellen, dass identische und visuell ähnliche Bilder denselben Hash ergeben, während Bilder, die sich voneinander unterscheiden, unterschiedliche Hashes ergeben”, zitiert MacRumors aus einem Whitepaper von Apple. “So wird beispielsweise ein Bild, das leicht beschnitten, in der Größe verändert oder von Farbe in Schwarz-Weiß umgewandelt wurde, als identisch mit dem Original behandelt und hat denselben Hashwert.”
Kommt es zu einer Übereinstimmung, wird ein kryptografischer Voucher erstellt und zusammen mit dem Bild auf iCloud hochgeladen. Eine manuelle Überprüfung findet allerdings erst statt, wenn die Zahl der “Treffer” eine nicht genannte Schwelle überschreitet. Erst danach soll jeder Fund geprüft, und falls bestätigt, an das NCMEC weitergegeben werden. Die Schwelle soll laut Apple sicherstellen, dass Nutzerkonten nicht fälschlicherweise als Besitzer von Kinderpornografie eingestuft werden.
Darüber hinaus warnt Apples Messages-App künftig beim Versand und beim Empfang von Bildern mit eindeutig sexuellen Inhalten. Die Erkennung soll ebenfalls auf dem Gerät erfolgen. Unter anderem ist die als Communication Safety bezeichnete Funktion in der Lage, an Kinder gerichtete Fotos mit sexuellen Inhalten vor der Zustellung unkenntlich zu machen. Eltern können zudem je nach Alter des Kinders festlegen, dass sie benachrichtigt werden, falls ihr Kind versucht auf Nachrichten mit anstößigen Bildern zuzugreifen.
Auch diese Funktion integriert Apple in iOS 15 und iPadOS 15, und auch in macOS Monterey. Sie ist allerdings nur für Konten aktiv, die in iCloud als Familie eingerichtet wurden. Apple betonte, dass Nachrichten weiterhin Ende-zu-Ende verschlüsselt sind und Apple nicht auf Inhalte zugreifen kann.
Application Portfolio Management (APM) verspricht Transparenz, mehr IT-Leistung und Effizienz – theoretisch.
Im Berichtszeitraum Mitte 2023 bis Mitte 2024 wurden täglich durchschnittlich 309.000 neue Schadprogramm-Varianten bekannt.
KI kommt in der Cybersicherheit zum Einsatz, etwa um Abweichungen im Netzwerkverkehr zu identifizieren. Ist…
Ungepatchte und veraltetete Maschinen-Software ist ein beliebtes Einfallstor für Hacker, warnt Nils Ullmann von Zscaler…
Die Auswahl einer Lösung sollte anhand von echten Leistungsindikatoren erfolgen, um echte KI von Behauptungen…
Interdisziplinäres Lenkungsgremium mit Experten aus den Bereichen IT, Medizin, Pflege und Verwaltung sorgt für die…