Vor rund einem Jahr kündigte Apple drei neue Kinderschutzfunktionen an: ein System zur Erkennung bekannter Bilder von sexuellem Kindesmissbrauch (Child Sexual Abuse Material, CSAM) in iCloud-Fotos, eine Option, um sexuell eindeutige Fotos in der Nachrichten-App unkenntlich zu machen, und Ressourcen für Siri zum Thema Kindesmissbrauch. Die beiden letztgenannten Funktionen sind mittlerweile verfügbar. Doch in Bezug auf die CSAM-Erkennungsfunktion in iCloud-Fotos schweigt Apple.
Ursprünglich gab Apple an, dass die CSAM-Erkennung in einem Update für iOS 15 und iPadOS 15 bis Ende 2021 implementiert werden würde. Doch das Unternehmen verschob die Funktion schließlich aufgrund des „Feedbacks von Kunden, Interessengruppen, Forschern und anderen“. Im September 2021 veröffentlichte Apple das folgende Update auf seiner Kindersicherheitsseite:
Wir haben bereits Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Raubtieren zu schützen, die Kommunikationsmittel nutzen, um sie anzuwerben und auszubeuten und die Verbreitung von Material über sexuellen Kindesmissbrauch einzuschränken. Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Kindersicherheitsfunktionen veröffentlichen.
CSAM in iCloud-Fotos: Apples Pläne bleiben unklar
Im Dezember 2021 entfernte Apple das obige Update und alle Verweise auf seine Pläne zur CSAM-Erkennung von seiner Kindersicherheitsseite. Ein Apple-Sprecher teilte The Verge mit, dass sich Apples Pläne für die Funktion nicht geändert haben. Soweit wir wissen, hat sich Apple seitdem jedoch nicht öffentlich zu den Plänen geäußert. Mit der Veröffentlichung von iOS 15.2 und anderen Software-Updates im Dezember 2021 hat Apple die Kindersicherheitsfunktionen für die Nachrichten-App und Siri eingeführt und mit iOS 15.5 und anderen Software-Updates im Mai 2022 auf Australien, Kanada, Neuseeland und Großbritannien ausgeweitet. Apple sagte, das CSAM-Erkennungssystem sei „mit Blick auf die Privatsphäre der Nutzer entwickelt worden“. Das System führt einen „geräteinternen Abgleich mit einer Datenbank bekannter CSAM-Bild-Hashes“ von Kinderschutzorganisationen durch, die Apple in einen „unlesbaren Satz von Hashes umwandelt, der sicher auf den Geräten der Nutzer gespeichert wird“.
Apples Pläne lösten viel Kritik aus
Apple plante, iCloud-Konten mit bekannten CSAM-Bild-Hashes an das National Center for Missing and Exploited Children (NCMEC) zu melden, eine gemeinnützige Organisation, die mit Strafverfolgungsbehörden zusammenarbeitet. Apple sagte, es gäbe einen „Schwellenwert“, der sicherstellt, dass die Wahrscheinlichkeit, dass ein Konto vom System falsch gekennzeichnet wird, „weniger als eins zu einer Billion“ beträgt, sowie eine manuelle Überprüfung der gekennzeichneten Konten durch einen Menschen. Apples Pläne wurden von einer Vielzahl von Einzelpersonen und Organisationen kritisiert, darunter Sicherheitsforschern, die Electronic Frontier Foundation (EFF), Politikern, politische Gruppen, Universitätsforschern und sogar einigen Apple-Mitarbeitern. Einige Kritiker argumentierten, dass Apples Kindersicherheitsfunktionen eine „Hintertür“ in die Geräte schaffen könnten, die Regierungen oder Strafverfolgungsbehörden nutzen könnten, um die Nutzer zu überwachen. Eine weitere Sorge war, dass es zu Fehlalarmen kommen könnte, wenn jemand absichtlich CSAM-Bilder zum iCloud-Konto einer anderen Person hinzufügt, um deren Konto zu kennzeichnen. (Photo by DenPhoto / Bigstockphoto)