Die Europäische Kommission wird in Kürze einen Gesetzesentwurf veröffentlichen, der Tech-Unternehmen wie Apple und Google dazu verpflichten könnte, illegale Bilder von Kindesmissbrauch auf ihren Plattformen zu identifizieren, zu entfernen und an die Strafverfolgungsbehörden zu melden, wie nun berichtet wird.
Laut einem geleakten Dokument, das Politico erhalten hat, ist die Europäische Kommission der Meinung, dass die freiwilligen Maßnahmen einiger digitaler Unternehmen sich bisher als unzureichend erwiesen haben, um den zunehmenden Missbrauch von Online-Diensten für den Austausch von Inhalten über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) zu bekämpfen, weshalb die Kommission die Erkennung von solchem Material verpflichtend machen will. Nach monatelanger Lobbyarbeit warten Gruppen, die Tech-Unternehmen und Kinderrechtsorganisationen vertreten, darauf, wie streng die Regeln sein könnten und wie sie funktionieren, ohne dass die Tech-Unternehmen die gesamte Bandbreite der Nutzerinhalte scannen müssen – eine Praxis, die der Europäische Gerichtshof 2016 für illegal erklärt hat.
War es das mit der Ende-zu-Ende-Verschlüsselung?
Abgesehen davon, wie die Identifizierung von illegalem Material im Rahmen des Gesetzes funktionieren würde, sind Datenschutzgruppen und Technologieunternehmen besorgt, dass die EU Hintertüren zu Ende-zu-Ende-verschlüsselten Nachrichtendiensten schaffen könnte, auf deren Inhalte die Hosting-Plattform keinen Zugriff hat. Die EU-Kommissarin für Inneres, Ylva Johansson, hat erklärt, dass es technische Lösungen gibt, um Gespräche sicher zu halten und gleichzeitig illegale Inhalte zu finden aber Cybersecurity-Experten sind anderer Meinung. Die Abgeordneten des Europäischen Parlaments sind sich in dieser Frage jedoch alles andere als einig. Als Reaktion auf Enthüllung des Vorschlags erklärte der Abgeordnete Moritz Körner von Renew Europe gegenüber Politico, dass der Vorschlag der Kommission bedeuten würde, „dass die Privatsphäre der digitalen Korrespondenz tot ist“. Die hitzige Debatte spiegelt die letztjährige Kontroverse um Apples Plan wider, auf iPhones und iPads nach CSAM (Child Sexual Abuse Material) zu suchen.
Apple in der Kritik
Im August 2021 kündigte Apple eine Reihe von neuen Kindersicherheitsfunktionen an, darunter das Durchsuchen der iCloud-Fotomediatheken der Nutzer nach CSAM und die Kommunikationssicherheit, um Kinder und ihre Eltern zu warnen, wenn sie sexuell eindeutige Fotos empfangen oder versenden. Die letztgenannte und wohl weniger umstrittene Funktion gibt es bereits auf Apples iMessage-Plattform in den USA. Apples Methode zum Scannen nach CSAM wurde bisher noch nicht eingesetzt. Nach Apples Ankündigung wurden die Funktionen von zahlreichen Einzelpersonen und Organisationen kritisiert, darunter Sicherheitsforscher, die Electronic Frontier Foundation (EFF), der ehemalige Sicherheitschef von Facebook, Politiker, politische Gruppen, Universitätsforscher und sogar einige Apple-Mitarbeiter. Die meiste Kritik wurde an Apples geplanter CSAM-Erkennung auf dem Gerät geübt, die von Forschern als gefährliche Technologie kritisiert wurde, die an Überwachung grenzt und als ineffektiv bei der Erkennung von Bildern von sexuellem Kindesmissbrauch verspottet wurde.
CSAM-Erkennung wird irgendwann kommen
Apple versuchte zunächst, einige Missverständnisse auszuräumen und die Nutzer zu beruhigen, indem es detaillierte Informationen veröffentlichte und Interviews mit Führungskräften des Unternehmens gab, um Bedenken zu zerstreuen. Doch trotz Apples Bemühungen ließ die Kontroverse nicht nach und Apple beschloss, die Einführung von CSAM nach der Flut von Kritik auf unbestimmte Zeit zu verschieben. Im Dezember 2021 strich Apple still und leise alle Erwähnungen von CSAM von seiner Kindersicherheits-Webseite und deutete damit an, dass sein umstrittener Plan, Bilder von sexuellem Kindesmissbrauch auf iPhones und iPads aufzuspüren, in der Schwebe hängt, nachdem die Methoden stark kritisiert wurden. Apple sagt jedoch, dass sich die Pläne für die CSAM-Erkennung seit September nicht geändert haben, was darauf hindeutet, dass die CSAM-Erkennung in irgendeiner Form auch in Zukunft kommen wird. (Photo by kckate16 / Bigstockphoto)