2604405

Apples oberster Datenschützer nimmt Stellung zu den Kinderschutzfunktionen

11.08.2021 | 16:30 Uhr | Stephan Wiesend

Der bei Apple für Datenschutz zuständige Erik Neuenschwander erklärt in einem Interview die Hintergründe zu den neuen Schutzfunktionen gegen Kinderpornografie.

Apple will seine Produkte und Dienste für Kinder sicherer machen und hat deshalb mehrere neue Schutzfunktionen angekündigt . Dazu gehören eine von Eltern aktivierbare Schutzfunktion für iMessage, eine zweite betrifft Siri und die Systemsuche. Für besonders viel Aufsehen sorgte aber eine neue Scan-Funktion, die von iCloud Photos verwaltete Fotos automatisch durchsucht und beim Erkennen von Kinderpornografie Apple benachrichtigt. Auf dem Gerät werden von iCloud Photos verwaltete Daten dazu mit einer Datenbank der Organisation NCMEC abgeglichen.

Lesetipp: Apples Kinderporno-Scan: Warum sich Experten sorgen

Apple hat bereits umfangreiche Informationen zu den neuen Funktionen veröffentlicht, in einem Interview mit Techchrunch konnte aber Apples Privacy-Verantwortlicher Erik Neuenschwander einige zusätzliche Informationen liefern. Auf die Frage, warum Apple die neuen Funktionen gerade jetzt einführt, nennt Neuenschwander vor allem technische Gründe. Erst seit Kurzem sei diese Funktion für Apple einsetzbar, man habe längere Zeit nach einer Lösung gesucht, die eine Balance zwischen Datenschutz und Kindersicherheit liefert. Die drei Schutzfunktionen sollen dabei außerdem interagieren und schon bei dem ersten Kontakt mit diesem Material intervenieren – deshalb reagieren Siri und die Suchfunktion bei entsprechenden Suchanfragen mit Warnungen und Kinder werden bei der Kommunikation über iMessage vor dem sogenannte „Grooming“ geschützt.

Die Frage, ob Apple bei der Überprüfung von Inhalten nicht die Privatsphäre seiner Nutzer verletzt, wird verneint. Weiterhin habe Apple keine Möglichkeit, die verschlüsselten Daten des Nutzers zu entschlüsseln. Die Prüfung erfolge schließlich auf dem Gerät selbst, nur bei Auffinden einer Sammlung von CSAM werde ein sogenannter „Voucher“ erstellt und für die Nachprüfung an Apple bereitgestellt – und gegebenenfalls die Staatsanwaltschaft informiert. Neuenschwander bestreitet eine weitere Befürchtung, eine Regierung könne Apple zwingen, auch nach anderen Dateien zu suchen. Aktuell wären nur iCloud-Accounts in den USA betroffen und dort seien solche Aufforderungen rechtlich nicht möglich. Anpassungen für einzelne Nutzer sei nicht zweckmäßig, da die sogenannte „hash list“ in das System selbst integriert ist – das global genutzt wird. Für solche Überwachungsaufgaben sei das System ebenfalls wenig nützlich, da das System nur ab einer bestimmten Anzahl solcher Fotos aktiv werde und danach von Apple manuell überprüft würde. Zusätzlich stünde es den Nutzern immer offen, auf iCloud Photos zu verzichten – ist iCloud Photos nicht aktiviert, werden auch keine Fotos überprüft. Apple habe gute Gründe gehabt, die Überprüfung auf dem Gerät durchzuführen. Scans auf einem Server (die Prüfung auf CSAM ist bei den meisten Cloud-Diensten Standard) wären ein größeres Risiko für die Privatsphäre und weit weniger transparent.

Kommentar

Apple steht offensichtlich unter Druck, mehr für den Schutz von Kindern zu tun. Bei der Prüfung auf dem Gerät des Benutzers folgt Apple aber einem arg akademisch wirkenden Konzept von Schutz der Privatsphäre. Es ist im Grunde nicht falsch: Die Überprüfung aller Daten auf einem Server wäre ein noch tiefgreifenderer Eingriff. Speichert man allerdings Daten auf einem entfernten Server von Google oder Microsoft, ist die Auswertung und Prüfung keine Überraschung – ein fortlaufender Scan der eigenen iPhoto-Bibliothek ist dagegen zumindest gewöhnungsbedürftig.

Macwelt Marktplatz

2604405