Nachdem Apple seinen neuen NeuralHash-Algorithmus vorgestellt hatte, war es wohl nur eine Frage der Zeit, bis er genauer analysiert wird. Wie nun etwa Asushariet Ygvar auf Reddit berichtet , soll eine dieser Technologien sogar schon unerkannt seit iOS 14.3 im System nachweisbar sein. Dem Entwickler ist es anscheinend gelungen, diese versteckten Systemdaten zu exportieren und in Python nachzubilden. Die Ergebnisse wurden bereits auf Github veröffentlicht und Apple KI-Modell kann sogar auf Linux ausprobiert werden, etwa mit dem Tool ONNX.
Theoretisch kann so sogar das Modell von Apples Prüfung exportiert werden, das anscheinend auf MobileNetV3 basiert. Wie von Apple in seiner Dokumentation erläutert, werden mit dem Tool Bilddateien auf Basis eines Neuralen Netzes überprüft. Laut Analyse wird dabei eine Bilddatei unter anderem in eine verkleinerte Datei konvertiert und eine Bildmatrix erstellt. Auf deren Grundlage wird dann der Hashwert erstellt, der mit der Datenbank von der Organisation wie National Center for Missing and Exploited Children (NCMEC) abgeglichen wird. Dass es sich wirklich um Apples Scanfunktion handelt, bestätigen einige Besonderheiten. Wie in Apples Dokumentation offengelegt, werden auch Bilder mit veränderter Auflösung oder Kompression erkannt – beschnittene oder rotierte aber möglicherweise nicht.
Wie in der Diskussion auf Reddit ergänzt wurde, handelt es sich aber vermutlich nur um einen der Analyseschritte, es gibt vermutlich noch weitere Zusatzroutinen. Interessant ist aber, dass Apple seinen Algorithmus offenbar schon sehr lange testet.
Unsere Meinung:
Eine Anmerkung zu dem Beitrag auf Reddit: In dem Beitrag und den Kommentaren wird Apple deutlich kritisiert, nach unserer Meinung aber zu Unrecht. Grundsätzlich sollte man anerkennen, dass Apple sich hier sehr um Transparenz bemüht und es sich bei der Entwicklung nicht leicht gemacht hat.