Apple hat in aller Stille sämtliche Hinweise auf die CSAM-Erkennung von seiner Kinderschutz-Website entfernt. Das deutet darauf hin, dass der umstrittene Plan, Bilder von sexuellem Kindesmissbrauch auf iPhones und iPads zu erkennen, nach heftiger Kritik an seinen Methoden auf der Kippe steht.
Im August kündigte Apple eine Reihe neuer Kinderschutzfunktionen an, darunter das Scannen der iCloud-Fotomediatheken der Nutzer nach Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM); Kommunikationssicherheit, um Kinder und ihre Eltern zu warnen, wenn sie sexuell eindeutige Fotos empfangen oder versenden und erweiterte CSAM-Hinweise in Siri und der Suche. Kurz nach der Ankündigung wurden die Funktionen von einer Vielzahl von Personen und Organisationen kritisiert, darunter Sicherheitsforschern, dem Whistleblower Edward Snowden, der Electronic Frontier Foundation (EFF), Universitäten und vielen weiteren. Die meiste Kritik wurde an Apples geplanter CSAM-Erkennung auf dem Gerät geübt, die von Forschern als gefährliche Technologie kritisiert wurde, die an Überwachung grenzt und als ineffektiv bei der Erkennung von Bildern von sexuellem Kindesmissbrauch verspottet wurde.
CSAM-Erkennung in iCloud-Fotos: Hat Apple den Plan aufgegeben?
Apple versuchte zunächst, einige Missverständnisse auszuräumen und die Nutzer zu beruhigen, indem das Unternehmen detaillierte Informationen, FAQs, verschiedene neue Dokumente, Interviews mit Führungskräften des Unternehmens und mehr veröffentlichte, um Bedenken zu zerstreuen. Doch trotz Apples Bemühungen riss die Kontroverse nicht ab. Apple setzte schließlich die Einführung der Kommunikations-Sicherheitsfunktionen für Nachrichten fort, die Anfang dieser Woche mit der Veröffentlichung von iOS 15.2 in Betrieb genommen wurde. Doch Apple entschied sich, die Einführung von CSAM-Erkennung in iCloud-Fotos zu verschieben, nachdem es eine Flut von Kritik gab, mit der das Unternehmen offensichtlich nicht gerechnet hatte. Apple begründete die Verzögerung mit dem Feedback von Kunden, Interessengruppen, Forschern und anderen. Das Unternehmen erklärte dabei:
Wir haben beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese wichtigen Kindersicherheitsfunktionen veröffentlichen.
Die obige Aussage wurde der offiziellen Kinderschutz-Website von Apple hinzugefügt, ist jetzt aber verschwunden, zusammen mit allen Erwähnungen in Bezug auf CSAM-Erkennung. Nun stellen sich viele die Frage, ob Apple den Plan vollständig aufgegeben hat. Ein offizielles Statement steht noch aus. (Photo by manae / Bigstockphoto)