Apple hat im August angekündigt, eine Reihe von Funktionen integrieren zu wollen, die darauf abzielen, Kinder online zu schützen, einschließlich eines Systems, das Material von Kindesmissbrauch in iCloud erkennen kann während die Privatsphäre der Nutzer gewahrt bleibt. Die Idee bekam viel Gegenwind. Nun sagen Sicherheitsforscher, dass Apples CSAM-Präventionspläne und die ähnlichen Vorschläge der EU eine „gefährliche Technologie“ darstellen, die die „Überwachungsbefugnisse des Staates“ deutlich ausweitet.
Apple hat noch nicht bekannt gegeben, wann das Unternehmen seine Kinderschutzfunktionen einführen will, nachdem es sie aufgrund von Bedenken von Sicherheitsexperten verschoben aber nicht völlig eingestampft hatte. Nun hat ein Forscherteam einen Bericht veröffentlicht, in dem es heißt, dass ähnliche Pläne sowohl von Apple als auch von der Europäischen Union ein Problem für die nationale Sicherheit darstellen. Nach Angaben der New York Times stammt der Bericht von mehr als einem Dutzend Cybersecurity-Forschern. Die Gruppe begann mit ihrer Studie bereits vor der ersten Ankündigung seitens Apple und erklärt, dass sie den Bericht trotz Apples Verzögerung veröffentlicht, um die EU vor dieser „gefährlichen Technologie“ zu warnen. Apples Plan, bekannte Bilder von sexuellem Kindesmissbrauch (Child Sexual Abuse Material, CSAM), die in iCloud-Fotos gespeichert sind, zu erkennen, ist besonders umstritten und hat bei einigen Sicherheitsforschern Bedenken hervorgerufen.
Apples Kinderschutz in iCloud-Fotos: Pläne der EU gehen noch weiter
Konkret sollen mehrere Tools eingesetzt werden, die mutmaßlich schädliche Bilder in Nachrichten blockieren und automatisch in iCloud gespeicherte Bilder abgleichen. Letzteres ähnelt der Methode, mit der Google bereits seit 2008 Gmail nach solchen Bildern durchsucht. Datenschützer glauben jedoch, dass Apples Plan dazu führen könnte, dass Regierungen von dem Unternehmen verlangen, Bilder für politische Zwecke zu scannen. Die Autoren des neuen Berichts glauben, dass die EU ein ähnliches System wie Apple plant, um nach Bildern von sexuellem Kindesmissbrauch zu suchen. Der Plan der EU geht aber noch weiter, indem er auch nach organisierter Kriminalität und terroristischen Aktivitäten berücksichtigt. Weder Vertreter der EU noch Apple haben sich zu dem Bericht bislang geäußert. Demnach werden wir eine entsprechende Reaktion noch abwarten müssen. (Photo by Unsplash / Sebastian Bednarek)