Apple hat eine FAQ mit dem Titel „Expanded Protections for Children“ (Erweiterter Schutz für Kinder) veröffentlicht, die darauf abzielt, die Datenschutzbedenken der Nutzer bezüglich der neuen CSAM-Erkennung in iCloud-Fotos und der Kommunikationssicherheit für iMessage zu zerstreuen, die das Unternehmen letzte Woche angekündigt hat.
Apples neue Tools, die Kinder schützen sollen, haben gemischte Reaktionen von Sicherheits- und Datenschutzexperten hervorgerufen, wobei einige fälschlicherweise behaupten, dass Apple seine Haltung zum Datenschutz aufgibt – was definitiv nicht stimmt. Nun hat Apple eine Gegendarstellung in Form eines FAQ-Dokuments (Frequently Asked Questions) veröffentlicht.
Bei Apple ist es unser Ziel, Technologien zu entwickeln, die Menschen befähigen und ihr Leben bereichern – während sie ihnen helfen, sicher zu bleiben. Wir wollen Kinder vor Raubtieren schützen, die Kommunikationswerkzeuge nutzen, um sie zu rekrutieren und auszubeuten und die Verbreitung von Material über sexuellen Kindesmissbrauch (CSAM) einschränken. Seit wir diese Funktionen angekündigt haben, haben viele Menschen, einschließlich Datenschutz- und Kinderschutzorganisationen, ihre Unterstützung für diese neue Lösung ausgedrückt und einige haben sich mit Fragen gemeldet.
Was sind die Unterschiede zwischen der Kommunikationssicherheit in iMessage und der CSAM-Erkennung in iCloud-Fotos?
Im Grunde genommen arbeiten diese beiden Funktionen vollständig unabhängig voneinander. Sie nutzen auch nicht die gleichen Techniken. Apple betont, dass die neuen Features in iMessage „entwickelt wurden, um Eltern zusätzliche Werkzeuge zu geben, um ihre Kinder zu schützen.“ Bilder, die über iMessage versendet oder empfangen werden, werden auf dem Gerät analysiert „und daher ändert [die Funktion] nicht die Datenschutzgarantien von iMessage.“ In Bezug auf die CSAM-Erkennung erklärt das Unternehmen:
Die CSAM-Erkennung in iCloud-Fotos sendet keine Informationen an Apple über andere Fotos als die, die mit bekannten CSAM-Bildern übereinstimmen.
iCloud-Foto: Apple wird Forderungen von Regierungen ablehnen
Ein Großteil des Dokuments deckt sich mit dem, was wir erst gestern in einer großen Zusammenfassung für euch bereitgestellt haben – ihr findet sie unten angehängt. Interessanterweise gibt es allerdings einen besonders brisanten Punkt, der explizit genannt wird, der vorher noch nicht in der Form bereit stand sondern lediglich am Rande kommuniziert wurde. So geht Apple auf die Sorge von Datenschutz- und Sicherheitsexperten ein, wonach dieses Scannen von Bildern auf dem Gerät leicht zu Gunsten von autoritären Regierungen ausgeweitet werden könnte, die von Apple verlangen, die Suche zu erweitern.
Apple wird solche Forderungen ablehnen. Wir waren schon früher mit Forderungen konfrontiert, staatlich verordnete Änderungen zu entwickeln und einzusetzen, die die Privatsphäre der Nutzer beeinträchtigen und haben diese Forderungen standhaft abgelehnt. Wir werden sie auch in Zukunft ablehnen. Lassen Sie uns klarstellen: Diese Technologie ist auf die Erkennung von in iCloud gespeicherten CSAM beschränkt und wir werden keiner Forderung einer Regierung nachkommen, sie zu erweitern.
Wer Apples FAQ einsehen möchte, der findet das Dokument hier. Nachfolgend findet ihr außerdem unseren kürzlich veröffentlichten Artikel, der zum Einen die Technologien dahinter beleuchtet und zum Anderen die wichtigsten Fragen beantwortet. (Bild: Apple)