Apple Ankündigung im August 2021 führte zu Kontroversen: Der Hersteller wollte auf den Endgeräten der Nutzer ein Feature aktivieren um gegen Kindesmissbrauch vorzugehen. Gleich nach der Ankündigung wurden Kritikerstimmen laut, die behaupten, Apples Schritt würde einen krassen Einschnitt in Privatsphäre jedes Nutzers bedeuten. Es gab auch Versuche zu beweisen, dass Apples Feature nicht so sicher und zuverlässig ist, wie vom Hersteller behauptet.
Mehr Sicherheit – aber auf anderen Wegen erreicht
Mit der Ankündigung neuer iCloud-Funktionen lässt Apple gleichzeitig wissen, dass das Unternehmen seine Pläne in Bezug auf Kinderporno-Scan nicht mehr verfolgt. Stattdessen konzentrieren sich die Entwickler auf der Kommunikationssicherheit, wie Apple gegenüber “Wired” bekannt gibt.
“Wir haben uns dazu entschieden, die CSAM-Suche in iCloud Fotos nicht mehr weiterzuverfolgen. Kinder können geschützt werden, ohne persönliche Daten aller zu durchleuchten. Wir arbeiten nach wie vor mit Regierungen, Kinderschutzorganisationen und weiteren Interessierten, um junge Menschen zu schützen und ihr Recht auf Privatsphäre zu gewährleisten”, so Apple gegenüber “Wired”.
Die neue Strategie des iPhone-Herstellers ist, sich auf iMessage-Analyse zu konzentrieren. Dabei scannen die Algorithmen die Bilder (und in der Zukunft Videos) nicht auf die Treffer in einer Datenbank, sondern generell auf Merkmale der Nacktheit. Wird ein Bild mit viel nackter Haut festgestellt, wird das Kind davor gewarnt, auf den Absende-Knopf zu drücken. Dieser Scan lässt sich zum einen nur für das Kind aktivieren, zum anderen kann man nach Wunsch noch Eltern benachrichtigen. Das System funktioniert nach dem Opt-In-Prinzip, das heißt, man muss die Hintergrundsuche nach Nacktheit bewusst einschalten, ab Werk ist sie ausgeschaltet.

Apple
Die Experten wie Organisation gegen Sexualgewalt RAINN sprechen sich für das neue Apple-Konzept: “Die fraglichen Bilder entstehen für gewöhnlich kurz vor ihrem Verschicken und würden in keiner Datenbank auftauchen. Scannen (und warnen – Anm. d. Red) auf CSAM noch bevor ein Bild das Gerät des Kindes verlässt, ist eine neue Herangehensweise, die das Problem von Online-Missbrauch etwas eingrenzt.”
Apples iMessage-Funktion wurde gleichzeitig mit dem CSAM-Scan der iCloud-Fotos bekannt gegeben, wurde aber bei weitem nicht so kontrovers diskutiert wie diese. Apple plant zudem, eigene Technologie in der Zukunft ebenfalls den Dritt-Entwicklern zur Verfügung zu stellen. Potenziell können Whatsapp, Instagram Direct und Facebook Messenger vor Kinderpornografie warnen.