2479769

Apple überprüft iCloud-Fotos auf Kinderpornografie

09.01.2020 | 15:51 Uhr | Michael Söldner

Mit einer automatischen Überprüfung will Apple in der iCloud nach kinderpornografischen Inhalten suchen.

Bei der Bekämpfung von Kinderpornographie stehen sich Datenschutz und Jugendschutz häufig im Weg. Apple hat sich dazu entschieden, in den iCloud-Fotos seiner Nutzer  automatisch nach Fotos zu suchen , die sexuellen Kindesmissbrauch abbilden. Auf einer Technologiekonferenz teilte Apples Privatsphäre-Chefin Jane Horvath mit, dass man die von Nutzern in den Cloud-Speicher hochgeladenen Fotos automatisch überprüfen werde. Die Verschlüsselung der hochgeladenen Inhalte wolle man dafür nicht aushebeln, stattdessen setze man auf neue Technologien, um unter den Fotos Abbildungen von Kindesmissbrauch ausfindig zu machen.

Der Schutz von Kindern sei ein wichtiges Anliegen von Apple. Als Teil dieser Verpflichtung wolle man Fotos nach Übereinstimmungen mit bereits bekannten Kinderporno-Bildern durchforsten. Dazu werden elektronische Signaturen genutzt, die in ähnlicher Form auch in Spam-Filtern bei E-Mails zum Einsatz kommen. Konten, auf denen sich derartige Fotos finden, würden gesperrt. Auch Facebook, Twitter und Google setzen auf eine Technologie namens Hashing, mit der Fotos mit einer Datenbank abgeglichen werden. Rechtlich hatte sich Apple diese Möglichkeit bereits mit einer Änderung der Datenschutzregelungen im vergangenen Jahr eröffnet. An der grundsätzlichen Verschlüsselung der Geräte werde Apple aber festhalten. Behörden sollen auch weiterhin keinen Zugriff auf diese Daten erhalten.

iCloud-Speicher ist voll? So räumen Sie auf!  

Macwelt Marktplatz

2479769