Apple hat diese Woche angekündigt, dass das Unternehmen ab iOS 15 und Co. nach bekannten Bildern von sexuellem Kindesmissbrauch (Child Sexual Abuse Material, CSAM), die in iCloud-Fotos gespeichert sind, suchen wird. Sobald entsprechendes Material entdeckt wird, sollen diese Fälle an das National Center for Missing and Exploited Children gemeldet werden, eine gemeinnützige Organisation, die mit Strafverfolgungsbehörden in den USA zusammenarbeitet.
Apples Pläne haben bei einigen Sicherheitsforschern und anderen Beobachtern sowie Nutzern die Befürchtung geweckt, dass Apple schließlich von Regierungen gezwungen werden könnte, Nicht-CSAM-Bilder zu schändlichen Zwecken in die Hash-Liste aufzunehmen, etwa um politischen Aktivismus zu unterdrücken. So äußerte sich der prominente Whistleblower Edward Snowden wie folgt:
CSAM-Erkennungssystem: Vorerst auf die USA beschränkt
Egal wie gut gemeint, Apple führt damit eine Massenüberwachung auf der ganzen Welt ein. Wenn sie heute nach Kinderpornos scannen können, können sie morgen nach allem scannen.
Auch die gemeinnützige Electronic Frontier Foundation kritisierte Apples Pläne und erklärte, dass „selbst eine gründlich dokumentierte, sorgfältig durchdachte und eng begrenzte Hintertür immer noch eine Hintertür ist“. Um diese Bedenken auszuräumen, hat sich Apple heute erneut zu Wort gemeldet. Apples neues CSAM-Erkennungssystem wird bei der Markteinführung auf die Vereinigten Staaten beschränkt sein. Um der Gefahr vorzubeugen, dass einige Regierungen versuchen könnten, das System zu missbrauchen, bestätigte Apple gegenüber 9to5mac und MacRumors, dass das Unternehmen eine mögliche globale Ausweitung des Systems nach einer rechtlichen Bewertung für jedes Land einzeln in Betracht ziehen wird. Apple nannte keinen Zeitrahmen für die allgemeine Ausweitung des Systems, falls ein solcher Schritt jemals erfolgen sollte.
„Es gibt keine Patentlösung für das Missbrauchspotenzial“
Darüber hinaus ging das Unternehmen auf die hypothetische Möglichkeit ein, dass eine bestimmte Region in der Welt beschließt, eine Sicherheitsorganisation zu korrumpieren und wies darauf hin, dass die erste Schutzebene des Systems ein nicht genannter Schwellenwert ist, bevor ein Nutzer wegen unangemessener Bilder angezeigt wird. Selbst wenn der Schwellenwert überschritten wird, würde das manuelle Überprüfungsverfahren von Apple als zusätzliche Barriere dienen. Apple hob auch einige Befürworter des Systems hervor, die das Unternehmen für seine Bemühungen im Kampf gegen Kindesmissbrauch lobten. Schließlich räumt Apple ein, dass es keine Patentlösung für das Missbrauchspotenzial des Systems gibt. Doch das in Cupertino ansässige Unternehmen betonte, dass es sich verpflichtet hat, das System ausschließlich für die Erkennung bekannter CSAM-Bilder zu verwenden. (Photo by Unsplash / Carles Rabada)