Apple hat am späten Donnerstagabend angekündigt, dass es mit dem Start von iOS 15 und Co. damit anfangen wird, iCloud Fotos in den USA zu scannen, um nach bekanntem Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) zu suchen und plant, die Ergebnisse an das National Center for Missing and Exploited Children (NCMEC) zu melden.
Noch bevor Apple die eigenen Pläne im Detail vorgestellt hat, sickerte die Nachricht über die CSAM-Initiative durch. Daraufhin haben Sicherheitsforscher damit angefangen, Bedenken darüber zu äußern, wie Apples neues Bild-Scan-Protokoll in Zukunft verwendet werden könnte. Das berichtet nun die Financial Times. Apple verwendet ein „NeuralHash“-System, um bekannte CSAM-Bilder mit Fotos auf dem iPhone eines Nutzers zu vergleichen, bevor diese in die iCloud hochgeladen werden.
Matthew Green zu Apples Plan: „Eine wirklich schlechte Idee“
Wenn es eine Übereinstimmung gibt, wird das Foto mit einem kryptographischen Sicherheitsgutschein hochgeladen und bei einem bestimmten Schwellenwert wird eine Überprüfung ausgelöst, um sicherzustellen, ob die Person tatsächlich CSAM auf ihren Geräten hat. Momentan nutzt Apple diese Technologie zum Scannen und Abgleichen von Bildern, um nach Kindesmissbrauch zu suchen. Doch Sicherheitsforscher befürchten, dass sie in Zukunft angepasst werden könnte, um nach anderen Arten von Bildern zu suchen, die besorgniserregender sind, wie z.B. Anti-Regierungszeichen bei Protesten. In einer Reihe von Tweets sagte der John Hopkins Kryptographie-Forscher Matthew Green, dass das CSAM-Scanning eine „wirklich schlechte Idee“ sei, da es in Zukunft auf das Scannen von Ende-zu-Ende verschlüsselten Fotos ausgeweitet werden könnte, anstatt nur auf Inhalte, die in die iCloud hochgeladen werden. Randnotiz: Bei Kindern implementiert Apple eine separate Scan-Funktion, die direkt in Nachrichten, die Ende-zu-Ende verschlüsselt sind, nach sexuell expliziten Inhalten sucht.
Scantechnologie soll sehr genau sein
Green äußerte auch Bedenken bezüglich der Hashes, die Apple zu verwenden plant, da es potenziell zu „Kollisionen“ kommen könnte, bei denen jemand eine harmlose Datei sendet, die einen Hash mit CSAM teilt und zu einer Falschmeldung führen könnte. Zur Erinnerung: Apple sagt, dass seine Scantechnologie ein „extrem hohes Maß an Genauigkeit“ hat, um sicherzustellen, dass Konten nicht fälschlicherweise markiert werden. Die Berichte werden manuell überprüft, bevor das iCloud-Konto einer Person deaktiviert und ein Bericht an die NCMEC gesendet wird. Green glaubt, dass Apples Implementierung andere Tech-Unternehmen dazu bringen wird, ähnliche Techniken zu übernehmen.
Das wird den Damm brechen. Die Regierungen werden es von jedem verlangen.
Der Sicherheitsforscher Alec Muffett, der früher bei Facebook gearbeitet hat, sagte, dass Apples Entscheidung, diese Art des Bildscannens zu implementieren, ein „riesiger und regressiver Schritt für die individuelle Privatsphäre ist.“
Apple verwendet Screening-Technologie schon länger
Wie viele auf Twitter anmerkten, führen mehrere Tech-Unternehmen bereits Bildscans für CSAM durch. Google, Twitter, Microsoft, Facebook und andere nutzen Bild-Hashing-Methoden, um nach bekannten Bildern von Kindesmissbrauch zu suchen und diese zu melden. Es ist auch erwähnenswert, dass Apple bereits vor dem Rollout der neuen CSAM-Initiative einige Inhalte auf Bilder von Kindesmissbrauch gescannt hat. Im Jahr 2020 bestätigte Apples Chief Privacy Officer Jane Horvath, dass Apple eine Screening-Technologie verwendet, um nach illegalen Bildern zu suchen und dann Accounts zu deaktivieren, wenn Beweise für CSAM entdeckt werden. Abgesehen davon hat Apple bereits 2019 seine Datenschutzrichtlinien aktualisiert, um darauf hinzuweisen, dass es hochgeladene Inhalte auf „potenziell illegale Inhalte, einschließlich Material zur sexuellen Ausbeutung von Kindern“ scannt. Daher ist die gestrige Ankündigung eigentlich nicht ganz neu. (Photo by weyo / Bigstockphoto)