2603253

Apple stellt Prüfung von iPhone-Fotos auf Kindesmissbrauch zurück

03.09.2021 | 15:20 Uhr | Peter Müller

Apple erklärt, wie es gegen Kindesmissbrauch vorgehen will. Ein wesentlicher Teil der Prüfung geschieht schon auf dem Gerät. Das hat Kontroversen ausgelöst, auf die Apple nun reagiert und das Feature zunächst zurückstellt.

Update vom 3. September: Apple stellt die Überprüfung von Fotos zurück, die auf den iPhones der Nutzer nach kinderpornografischem Material suchen und Missbrauch gegebenenfalls melden. Das Unternehmen bezieht wie folgt Stellung:

"Letzten Monat haben wir Pläne für Funktionen angekündigt, die dazu beitragen sollen, Kinder vor Kriminellen zu schützen, die Kommunikationstools nutzen, um sie anzuwerben und auszubeuten, und die Verbreitung von Material über sexuellen Kindesmissbrauch einzuschränken. Aufgrund des Feedbacks von Kunden, Interessengruppen, Forschern und anderen haben wir beschlossen, uns in den kommenden Monaten mehr Zeit zu nehmen, um Anregungen zu sammeln und Verbesserungen vorzunehmen, bevor wir diese äußerst wichtigen Funktionen zum Schutz von Kindern veröffentlichen."

Apples Ankündigung hat Anfang August (siehe Meldung weiter unten) zahlreiche Kritik nach sich gezogen. Gut gemeint mag die Aktion gewiss gewesen sein, aber nicht gut gemacht.

Lesen Sie hier mehr zum Thema:

Apples oberster Datenschützer nimmt Stellung zu den Kinderschutzfunktionen

Apples Kinderporno-Scan: Warum sich Experten sorgen

Kinderporno-Scan austricksbar? Apple verteidigt sich

"Gefahr für die Pressefreiheit" - Journalisten verurteilen Apples Kinderporno-Scan

Apple: "Unsere Scan-Funktion wurde völlig missverstanden"

Meldung vom 6. August 2021: "TechCrunch" berichtet , dass Apple bald eine neue Technologie einführen wird, um Fotos, die in iCloud hochgeladen werden, auf Material über sexuellen Kindesmissbrauch (Child Sexual Abuse Material, CSAM) zu scannen. Apple wird das im Laufe des Jahres umsetzen als Teil einer Reihe von Technologien, die die Nutzung der Produkte und Dienste von Apple für Kinder sicherer machen sollen. Apple hat mittlerweile eine Kindersicherheitsseite eingerichtet , die diese neue Funktion und ihre Funktionsweise beschreibt.

Die meisten Cloud-Dienste scannen bereits Bilder auf Material, das gegen ihre Nutzungsbedingungen oder das Gesetz verstößt, darunter auch CSAM. Sie können dies tun, weil die Bilder zwar verschlüsselt gespeichert werden, die Unternehmen aber über den Schlüssel verfügen. Apple verschlüsselt die Fotos bei der Übertragung und speichert sie verschlüsselt, hat aber den Schlüssel in der Hand, um sie bei Bedarf zu entschlüsseln – etwa, um in iCloud gespeicherte Daten nach gerichtlicher Anordnung vorzulegen – oder um schlicht Ihre iCloud-Fotos in einem Webbrowser verfügbar zu machen.

Hashwerte schon auf dem iPhone erstellt

Um die Privatsphäre der Nutzer zu schützen, setzt das Unternehmen auf eine neue Technologie namens Neural Hash, die Bilder beim Hochladen in iCloud Photos auf Übereinstimmungen mit einer bekannten Datenbank mit Bildern von Kindesmissbrauch überprüft. Die Technologie funktioniert vollständig auf Ihrem iPhone, iPad oder Mac, indem sie Fotos in eine eindeutige Zeichenfolge aus Buchstaben und Zahlen (einen "Hash") umwandelt. Normalerweise würde jede geringfügige Änderung an einem Foto zu einem anderen Hashwert führen, aber Apples Technologie soll so beschaffen sein, dass kleine Änderungen (wie der Zuschnitt des Bildes) immer noch den gleichen Hashwert ergeben.

Diese Hashes werden auf dem Gerät mit einer Datenbank von Hashes für Bilder von sexuellem Kindesmissbrauch abgeglichen. Die Hashes können unsichtbar abgeglichen werden, ohne dass das zugrunde liegende Bild bekannt ist oder der Benutzer in irgendeiner Weise gewarnt wird. Die Ergebnisse des Abgleichs werden an Apple hochgeladen, wenn ein bestimmter Schwellenwert erreicht ist. Erst dann kann Apple die übereinstimmenden Bilder entschlüsseln, den Inhalt manuell überprüfen und das Konto eines Nutzers sperren. Apple meldet die Bilder dann an das National Center for Missing & Exploited Children, das sie an die Strafverfolgungsbehörden weiterleitet.

Mit anderen Worten: Es ist äußerst unwahrscheinlich, dass Apple in der Lage sein wird, sich willkürlich beliebige Bilder auf Ihrem iPhone anzusehen. Laut "TechCrunch" sagt Apple, dass die Wahrscheinlichkeit eines falsch positiven Ergebnisses bei eins zu einer Billion liegt, und dass es ein Einspruchsverfahren für jeden geben wird, der glaubt, dass sein Konto versehentlich gesperrt wurde. Die Technologie ist nur teilweise optional: Sie müssen iCloud Photos nicht verwenden, aber wenn Sie es tun, können Sie die Funktion nicht deaktivieren.

Apple hat ein technisches Dokument veröffentlicht, das die Neural-Hash-Technologie ausführlich beschreibt . Diese neue Technologie wird als Teil von iOS 15 , iPadOS 15 und macOS Monterey diesen Herbst eingeführt.

Macwelt Marktplatz

2603253