Apple wird einem Bericht zufolge neue Funktionen zur Fotoidentifizierung ankündigen, die Hash-Algorithmen verwenden, um den Inhalt von Fotos in den Fotobibliotheken der Anwender mit bekannten Materialien zum Kindesmissbrauch, wie z.B. Kinderpornografie, abzugleichen.
Apple hat in der Vergangenheit einzelne Anwendungen aus dem App Store entfernt, weil das Unternehmen Bedenken wegen Kinderpornografie hatte. Doch nun soll Cupertino kurz davor stehen, eine automatische Erkennung systemweit einzuführen. Mittels Foto-Hashing könnten iPhones „Child Sexual Abuse Material“ (CSAM) auf dem Gerät identifizieren, das berichtet Matthew Green, ein Kryptograph und Professor am Johns Hopkins Information Security Institute. Laut Green soll der Plan zunächst client-seitig sein – das heißt, die gesamte Erkennung soll auf dem iPhone des Nutzers stattfinden. Er hält es jedoch für möglich, dass dies der Anfang eines Prozesses ist, der zur Überwachung des Datenverkehrs führt, der vom Telefon gesendet und empfangen wird.
iCloud Fotos: Apple hat bereits Hashing-Techniken bestätigt
Letztendlich könnte es ein Schlüsselbestandteil sein, um die Überwachung zu verschlüsselten Nachrichtensystemen hinzuzufügen. Die Fähigkeit, Scan-Systeme wie dieses zu E2E [Ende-zu-Ende-Verschlüsselung] Messaging-Systemen hinzuzufügen, ist eine große ‚Bitte‘ der Strafverfolgungsbehörden auf der ganzen Welt gewesen. Diese Art von Werkzeug kann ein Segen sein, wenn es darum geht, Kinderpornographie in den Telefonen der Leute zu finden. Aber stell dir vor, was es in den Händen einer autoritären Regierung anrichten könnte?
Zur Erinnerung: Apple hat bereits in der Vergangenheit bestätigt, dass es Hashing-Techniken verwendet, wenn Fotos in die iCloud hochgeladen werden. Doch dieses neue System würde auf der Client-Seite, also auf dem Gerät des Nutzers, durchgeführt werden. Damit wäre es unabhängig von der iCloud. Wann Apple das Ganze nun offiziell ankündigen wird, bleibt natürlich abzuwarten. Interessant werden dabei die Details sein. (Photo by Unsplash / TheRegisti)