2605113

Apple: "Unsere Scan-Funktion wurde völlig missverstanden"

16.08.2021 | 16:20 Uhr | Stephan Wiesend

In einem Interview mit dem Wall Street Journal versucht Craig Federighi die neue Scanfunktion für Fotos zu erklären.

Apples Vorstellung der neuen Kinderschutzfunktionen war gelinde gesagt ungeschickt, wurden die neuen Schutzfunktionen doch fast schon nach dem Motto „Friss oder stirb“ vorgestellt. Gegenüber amerikanischen Medien hat Apple aber in den letzten Tagen versucht, seine Entscheidung besser zu erklären. Ein längeres Interview führte Craig Federighi etwa mit dem "Wall Street Journal". In dem Interview geht es um zwei neue Funktionen, eine Scan-Funktion für iCloud-Fotos und eine neue Kinderschutzfunktion für iMessage. So gibt Federighi mittlerweile zu, beide Funktionen vorzustellen „was a recipe for this kind of confusion“.

Wo scannt Apple was?

Vehement bestreitet Federighi in dem Interview den Vorwurf „Apple durchsuche iPhones nach Kinderpornografie“. Laut dem Software-Chef von Apple ist das Erkennen illegaler Bilddateien auf iCloud-Fotos beschränkt. Eine solche Prüfung sei bei allen anderen Cloud-Speicherdiensten längst üblich. Diese würden sogar jedes einzelne Foto ihrer Benutzer scannen, was Apple unbedingt vermeiden wollte, um die Privatsphäre der Nutzer zu schützen. Nur falls man iCloud-Foto nutze, was man auch unterlassen könne, werden die Daten beim Upload auf Apples Server geprüft. Ein Algorithmus führt laut Federighi einen Teil der Analyse auf dem Gerät aus, erst auf dem Server werde dann ein zweiter Teil der Analyse durchgeführt. Wird dabei ein Grenzwert überschritten – laut Federighi, der erstmals eine Zahl nennt, – liegt dieser bei etwa 30 Fotos. Erst dann wird Apple über den Account informiert. Und selbst dann kann Apple nur auf diese betroffenen Bilddateien von Apple zugreifen, nicht auf weitere Dateien.

Ausschließlich bekannte Kinderpornografie werde dabei überprüft. Weder das Bild des eigenen Kindes in der Badewanne sei betroffen, ebenso wenig pornografische Inhalte. Beim Upload eines Bildes wird dazu ein sogenannter Neural Hash eines Bildes erzeugt, eine Art Fingerabdruck. Dieser wird mit einer Datenbank von bekannten illegalen Bildern verglichen, die von der Organisation NCSEM gepflegt wird. Ist ein Bild in der Datenbank aufgeführt, wird nun automatisch in ein sogenanntes „Safety Voucher“ (Sicherheits-Gutschein) erstellt und dem Bild hinzugefügt. Gibt es mehrere dieser Safety Vouchers (etwa über 30), wird der Account markiert und ein Mitarbeiter von Apple kann die Dateien überprüfen – und zwar nur diese Dateien.

Wie Joanna Stern zu Recht anmerkt, ist es aber die Prüfung auf dem Gerät, die viele irritiert habe. Es würde der Eindruck entstehen, „Apple kann Dinge auf meinem Gerät machen“.

Laut Federighi ist dies aber ein komplettes Missverständnis. Die Prüfung finde nur während des Uploads in die Cloud statt. Es sei kein Prozess, der über alle Bilddateien ablaufe – etwa über Fotos in iMessage oder Telegram. Auch die Frage, ob es sich nicht um eine Backdoor handle, wird von Federighi entschieden verneint. Es sei gerade nicht so, dass die Daten auf einem Server uneingeschränkt geprüft würden. Es gebe nur eine Datenbank auf allen iPhone, die sowohl in den USA, ein Europa und in China verwendet würde. Es sei auch gar nicht nötig, Apple dabei zu vertrauen, da der Vorgang von mehreren Autoritäten überprüft werde. Apple habe das System absichtlich so konzipiert, dass keine fremde Autorität Änderungen durchsetzen könnte (etwa um nach anderen Daten zu suchen.)

Nacktheit in iMessages

Eine zweite neue Funktion betrifft den Messenger, die aber nichts mit der Scan-Funktion zu tun habe. Hier gibt es eine neue Funktion für den Schutz von Kindern: Ist diese von den Eltern aktivierbare Funktion eingeschaltet und erhält das Kind ein Nacktfoto, wird das Bild ausgeblendet und das Kind gewarnt. Auch die Eltern können informiert werden. Dies soll Kindern vor Kontakten mit Sexualverbrechern schützen und ist komplett unter elterlicher Kontrolle. Eine intelligente Bilderkennung auf dem iPhone ist dabei in der Lage Nacktheit zu erkennen.

Abschließend stellt Stern aber doch noch einmal die Frage, ob jemandem sein iPhone eigentlich noch gehöre?

Laut Federighi ist dies aber weiterhin der Fall, das Smartphone gehört auch dann noch dem Besitzer. Eine Prüfung fände nur bei Fotos statt, die in der Cloud gespeichert werden. Das System nutze deshalb den besten Schutz der Privatsphäre, der möglich sei.

Kommentar

Apple hat sich offensichtlich Mühe gegeben, einen Ausgleich zwischen Privatsphäre und Kinderschutz zu kombinieren. Über die Kritik von Datenschützern darf sich das Unternehmen aber nicht wundern. Offenbar hat man vor der Veröffentlichung zu wenig darauf geachtet, welchen Eindruck dieses komplexe Verfahren beim Kunden selbst machen wird. Dieser stellt sich wohl die simple Frage „Scannt Apple nun Apple meine Fotos, oder nicht?“ Und trotz komplexen Prüfprozessen und Vouchers – das tut Apple schlussendlich dann doch.

Macwelt Marktplatz

2605113