Anfang 2021 kündigte Apple eine Reihe von Funktionen an, um Kinder vor sexueller Ausbeutung im Internet zu schützen. Einige davon sind geräteintern, wie etwa die Kindersicherung, die verhindert, dass Kinder pornografische Bilder in Nachrichten sehen oder versenden können. Die umstrittenste Maßnahme war jedoch ein System zum Scannen von Fotos, wenn sie in iCloud hochgeladen werden.
Das System sollte die Privatsphäre schützen, indem es nur eindeutige Hashes von Bildern vergleicht, um zu sehen, ob sie mit den eindeutigen Hashes von bekanntem CSAM (Child Sexual Abuse Material) übereinstimmen. Dennoch wurde das System von Verfechtern des Datenschutzes heftig kritisiert, da es beispielsweise von staatlichen Akteuren ausgenutzt werden könnte, um Apple zu zwingen, Bilder von Dissidenten zu finden. Einige Kinderschutzexperten hielten das System auch für nicht robust genug, da es nur Bilder aus einer bekannten Datenbank abgleichen konnte, nicht aber neu erstelltes CSAM.
Apple rudert zurück – und erklärt sich
Apple stellte diesen Teil seiner Kindersicherheitsfunktionen zunächst zurück und gab es im Dezember letzten Jahres komplett auf. Stattdessen, so Apple, würde sich das Unternehmen auf Sicherheitsfunktionen konzentrieren, die auf dem Gerät laufen und Kinder vor Verbrechern schützen, anstatt ein System zu entwickeln, das iCloud-Bilder scannt.
Apple verteidigt diese Entscheidung und bekräftigt seine frühere Argumentation.
Eine Kinderschutzgruppe namens Heat Initiative will mit einer Kampagne Apple unter Druck setzen, Bilder von sexuellem Missbrauch von Kindern in der iCloud zu erkennen, zu melden und zu entfernen. Apple reagierte auf diese Entwicklung in einer Erklärung gegenüber Wired. Das Unternehmen brachte im Wesentlichen dasselbe Argument vor wie im vergangenen Dezember: CSAM ist schrecklich und muss bekämpft werden, aber das Scannen von Online-Fotos schafft Systeme, die missbraucht werden können, um die Privatsphäre aller Nutzer zu verletzen.
Die privat gespeicherten iCloud-Daten jedes Nutzers zu scannen, würde neue Angriffspunkte für Datendiebe schaffen, die sie finden und ausnutzen könnten… Es würde auch das Potenzial für unbeabsichtigte Folgen bergen. Das Scannen nach einer bestimmten Art von Inhalten öffnet beispielsweise die Tür für eine Massenüberwachung und könnte den Wunsch wecken, auch andere verschlüsselte Nachrichtensysteme nach bestimmten Inhalten zu durchsuchen.
Erik Neuenschwander, Leiter des Bereichs Datenschutz und Kindersicherheit bei Apple
Kurz gesagt, Apple gibt (wieder einmal) zu, was die Datenschützer bei der ersten Ankündigung der iCloud CSAM-Scanfunktion erklärten: Es gibt einfach keine Möglichkeit, diese Funktion zu nutzen, ohne gleichzeitig Systeme zu schaffen, die die Sicherheit und den Schutz der Privatsphäre aller Menschen gefährden können.
Dies ist nur die jüngste Facette in der uralten Verschlüsselungsdebatte. Die einzige Möglichkeit, die Privatsphäre der Nutzer vollständig zu schützen, besteht darin, die Daten so zu verschlüsseln, dass niemand außer dem Nutzer oder dem vorgesehenen Empfänger in sie hineinsehen kann. Dies schützt sowohl Unschuldige als auch Kriminelle und wird daher natürlich von Strafverfolgungsbehörden, Geheimdiensten und anderen Organisationen abgelehnt, die jeweils ihre eigenen Gründe für die Durchsuchung von Nutzerdaten haben.
Apple ist der Ansicht, dass die Verhinderung von CSAM und anderen Formen des Kindesmissbrauchs von entscheidender Bedeutung ist, aber auf eine Art und Weise erfolgen muss, die es Apple (oder anderen Gruppen) nicht ermöglicht, Benutzerdaten einzusehen. Die Erkennung und Ausblendung von Nacktbildern auf dem Gerät ist eine solche Funktion, die Apple in den letzten Jahren mit Betriebssystem-Updates erweitert hat.
Dieser Artikel ist zuerst auf Macworld.com erschienen und wurde aus dem Englischen übersetzt