Apple hat am Freitag bekannt gegeben, dass die drei Funktionen, mit denen die Verbreitung von Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) gestoppt werden soll, nicht zum Herbst-Release von iOS 15, iPadOS 15, watchOS 8 und macOS 12 Monterey verfügbar sein werden ( wir berichteten ). Das Unternehmen wird die CSAM-Funktionen “später in diesem Jahr in Updates” zur Verfügung stellen.
In einer Pressemitteilung erklärte Apple: “Dieses Programm ist ehrgeizig, und der Schutz von Kindern ist eine wichtige Verantwortung. Diese Bemühungen werden sich im Laufe der Zeit weiterentwickeln und ausbauen.”
Apple stellte die CSAM-Funktionen Anfang August vor, und während viele in der Tech-Community Apples Bemühungen zum Schutz von Kindern begrüßten, äußerten viele auch Bedenken darüber, wie die Technologie hinter den CSAM-Funktionen für andere Überwachungszwecke genutzt werden könnte. Mehr als 90 Politik- und Rechtsgruppen veröffentlichten einen offenen Brief, in dem sie Apple aufforderten, seine CSAM-Funktionen zu streichen.
Protest von 90 Gruppen
Die Hauptfunktion, die die Kontroverse ausgelöst hat, ist die CSAM-Erkennungsfunktion, bei der Bilder auf Ihrem Gerät nach Hashes gescannt und diese Hashes dann mit einer Liste bekannter CSAM-Hashes verglichen werden. Das Argument gegen diese Funktion ist, dass sie auch für andere Zwecke eingesetzt werden könnte. Beispielsweise könnte eine Regierung verlangen, dass Apple ein ähnliches Verfahren entwickelt, um Bilder zu prüfen, die für die Politik der Regierung von Bedeutung sind.
Apple erklärte, dass es in solchen Situationen eine solche Anfrage ablehnen würde, aber diese Erklärung hat bei den Betroffenen kein Vertrauen geschaffen. Regierungen können (und werden) immer Konsequenzen für die Nichtbefolgung eines Befehls vorsehen, was Apple dazu veranlassen könnte, seine Politik zu ändern. Es besteht auch die Möglichkeit, dass Apple beschließt, die Technologie für andere Zwecke als die CSAM zu verwenden, was jedoch das Image von Apple als Unternehmen, das sich um die Privatsphäre der Nutzer kümmert, schwächen würde.
Die beiden anderen CSAM-Funktionen, die sich verzögern, sind:
- Sicherheit bei der Kommunikation mit Messages: Die Messages-App wird maschinelles Lernen auf dem Gerät nutzen, um Kinder und Eltern vor sensiblen Inhalten zu warnen.
- Siri und Suche: Diese Funktionen werden zusätzliche Ressourcen bereitstellen, um Kindern und Eltern zu helfen, online sicher zu bleiben und Hilfe in unsicheren Situationen zu erhalten.
EFF: Apple soll Pläne ganz aufgeben
Der Electronic Frontier Foundation (EFF) geht Apples Einlenken nicht weit genug und fordert den Konzern nun dazu auf , komplett auf die CSAM-Tools zu verzichten. Man sei zufrieden damit, dass Apple auf die Bedenken seiner Nutzer höre, die sich um die Gefahren derartiger Scan-Werkzeuge drehen. Doch solle Cupertino konsequent sein, und diese potenzielle Hintertür in seiner Verschlüsselung gar nicht erst öffnen. Denn wenn erst einmal der Weg beschritten ist, können auch freie Rede und die Sicherheit und Privatsphäre von Menschen weltweit in Gefahr geraten.
“Die große Koalition, die sich zu Wort gemeldet hat, wird weiterhin fordern, dass die Smartphones der Nutzer – sowohl ihre Nachrichten als auch ihre Fotos – geschützt werden und dass das Unternehmen sein Versprechen einhält, seinen Nutzern echten Datenschutz zu bieten”, schreibt die EFF in ihrem Blog .
Lesen Sie hier mehr zum Thema:
Apples oberster Datenschützer nimmt Stellung zu den Kinderschutzfunktionen
Apples Kinderporno-Scan: Warum sich Experten sorgen
Kinderporno-Scan austricksbar? Apple verteidigt sich
“Gefahr für die Pressefreiheit” – Journalisten verurteilen Apples Kinderporno-Scan