Apple hat nicht nur eine Ende-zu-Ende-Verschlüsselung für iCloud-Fotos eingeführt sondern auch seine umstrittenen Pläne aufgegeben, bekanntes Material über sexuellen Kindesmissbrauch (CSAM) in iCloud-Fotos zu erkennen.
Nach dem Apple umfangreiche Neuerungen im Bereich Sicherheit bekanntgegeben hat, wurde nun bestätigt (via Wired), dass Pläne zur Erkennung von CSAM in iCloud-Fotos nicht mehr weiter verfolgt werden. Nachfolgend die vollständige Erklärung von Apple:
Nach ausführlichen Beratungen mit Experten, um Feedback zu den von uns im letzten Jahr vorgeschlagenen Initiativen zum Schutz von Kindern einzuholen, vertiefen wir unsere Investitionen in die Funktion „Communication Safety“, die wir erstmals im Dezember 2021 zur Verfügung gestellt haben. Wir haben außerdem beschlossen, unser zuvor vorgeschlagenes CSAM-Erkennungstool für iCloud Fotos nicht weiterzuverfolgen. Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchkämmen. Wir werden weiterhin mit Regierungen, Kinderschützern und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen.
Erkennung von CSAM in iCloud-Fotos:: Apple äußert sich nach einem Jahr des Schweigens
Im August 2021 kündigte Apple Pläne für drei neue Kindersicherheitsfunktionen an, darunter ein System zur Erkennung bekannter CSAM-Bilder in iCloud Photos, eine Communication Safety-Option, die sexuell eindeutige Fotos in der Nachrichten-App unkenntlich macht und Ressourcen zur Kinderausbeutung für Siri. Communication Safety wurde in den USA mit iOS 15.2 im Dezember 2021 eingeführt und ist seitdem auf Großbritannien, Kanada, Australien und Neuseeland ausgeweitet worden während die Siri-Ressourcen ebenfalls verfügbar sind. Ursprünglich sagte Apple, dass die CSAM-Erkennung in einem Update für iOS 15 und iPadOS 15 bis Ende 2021 implementiert werden würde. Doch das Unternehmen verschob die Funktion schließlich aufgrund des „Feedbacks von Kunden, Interessengruppen, Forschern und anderen“. Jetzt, nach einem Jahr des Schweigens, hat Apple die Pläne zur CSAM-Erkennung offiziell ganz aufgegeben. (Photo by Unsplash / Sebastian Bednarek)
- iCloud-Fotos & mehr: Apple erweitert Ende-zu-Ende-Verschlüsselungsoptionen
- iMessage & Apple ID: Apple zeigt neue Sicherheitsfunktionen