Am Freitag Nachmittag hat Apple seine Nutzer vor Tatsachen gestellt: Ab iOS 15 greifen neue Maßnahmen im Kampf gegen Kinderpornografie, iCloud-Fotos auf den Geräten der Nutzer werden proaktiv mit einer Datenbank der US-Amerikanischen Nicht-Regierungs-Organisation NCMEC (National Center for Missing & Exploited Children) abgeglichen . Bereits im vergangenen Jahr hat Apple angekündigt, etwas Ähnliches zu tun , damals ging es um die Überprüfung der Nutzerfotos auf Servern, nicht auf den Geräten selbst. Die Ausweitung von Cloud-Servern zu Endgeräten für Kinderporno-Scans hat seit Ankündigung Apples hitzige Diskussionen hervorgerufen. Es ist sogar eine Petition gestartet, die Unterschriften dafür sammelt, dass Apple seine Pläne ändert.
Dass sich Edward Snowden dagegen ausspricht, ist wenig verwunderlich, doch mittlerweile haben sich etliche andere Experten aus dem Bereich Verschlüsselung und Sicherheit zu Wort gemeldet. Nach Auffassung von Electronic Frontier Foundation ist Apple gerade dabei eine Backdoor in eigene Systeme zu bauen: “Es ist unmöglich, ein clientseitiges Scan-System zu entwickeln, das nur für sexuell eindeutige Kinderbilder verwendet werden kann, die gesendet oder empfangen werden. Folglich wird selbst ein gut gemeinter Versuch, ein solches System zu entwickeln, wichtige Versprechen der Messenger-Verschlüsselung selbst brechen und die Tür für breiteren Missbrauch öffnen.”
Demnach, so der EFF weiter, werde die Datenbank mit Hashes von NCMEC auf jedes iPhone in den USA ab iOS 15 heruntergeladen, das System scanne fortan die Bilder nach Übereinstimmungen. Laut EFF ist das ein Rückschritt beim Datenschutz und kein Fortschritt.
Center for Democracy and Technology in den USA kritisiert unter anderem die Scan-Algorithmen in iMessage. Demnach zeige Apple Möglichkeiten auf, wie ein iCloud-Account den Schriftverkehr eines anderen überwache. “Der Mechanismus, der es Apple ermöglichen wird, Bilder in iMessages zu scannen, ist keine Alternative zu einer Backdoor – es ist eine Backdoor. Das clientseitige Scannen an einem ‘Ende’ der Kommunikation unterbricht die Sicherheit der Übertragung, und die Informierung eines Dritten (der Eltern) über den Inhalt der Kommunikation untergräbt deren Privatsphäre.”
Weitere Experten äußern scharfe Kritik an Apple-Plänen
Carmela Troncoso, eine der Köpfe des Kontaktnachverfolgungssystems der Corona-Warn-App, bewertet Apples Pläne ähnlich : “Lasst euch nicht von coolen Kryptobeschreibungen oder wohlklingenden Datenschutzversprechen verleiten. Das ist eine Backdoor zur Verschlüsselung. … Wir sind zurück bei den Krypto-Kriegen.”
Sarah Jamie Lewis, Geschäftsführerin bei der Open Privacy Research Society, macht sich Sorgen , dass andere Hersteller bald nachziehen: “Man kann diese Überwachung in eine beliebige Anzahl von Verschlüsselungsschichten verpacken, um sie schmackhaft zu machen, das Endergebnis ist das Gleiche. … Wenn Apple dies erfolgreich einführt, wie lange wird es Ihrer Meinung nach dauern, bis dasselbe von anderen Anbietern erwartet wird?”
Ben Thompson, ein langjähriger Apple-Beobachter, kritisiert Apple dafür , dass das Unternehmen mit neuen Maßnahmen überhaupt eine Möglichkeit schafft, die Inhalte der Nutzer anzuzapfen. Eines der stärksten Argumente im San-Bernardino-Fall war Apples Position, dass man keine Schlüssel zu keinem der mit Passcode gesperrten iPhones habe. Dieser Punkt stimmte damals und jetzt, aber eben nur bis Herbst, Ab dann werde Apple mit den Regierungen in China oder Belarus nicht mehr argumentieren können, man habe keinen Zugang auf die iPhone-Inhalte. Apples Fehler ist nach Auffassung Thompsons, dass das Unternehmen seine Algorithmen gleich auf den Geräten der Nutzer implementiert. Somit werde der Begriff des Eigentums ausgehebelt: Gehört mir eigentlich noch das iPhone, wenn Apple nach mir nicht bekannten Regeln die Inhalte durchsucht und Dritt-Organisationen vorwarnt?
Nach Thompson wäre Apple besser gefahren, wenn der Scan nach illegalen Inhalten nur iCloud betreffen würde, nicht aber die iPhone-Speicher.