Bei der Weiterentwicklung seiner Plattformen hat Apple ein Problem: Um Safari, Siri oder iTunes Music zu verbessern, sind Informationen über das Nutzerverhalten wichtig, gleichzeitig will Apple aber den Schutz der Privatsphäre gewährleisten.
Lösen soll diesen Widerspruch das System Differential Privacy : Daten werden vor der Übermittlung an Apple anonymisiert, Rückschlüsse auf einzelne Nutzer sollen so unmöglich sein. So heißt es in den Erläuterungen unter der Systemeinstellung Sicherheit: “Die Daten aus deinem iCloud-Account werden erst nach einer Reihe von Datenschutzmaßnahmen analysiert, z. B. Differential Privacy, sodass sie nicht mit dir oder deinem Account verknüpft sind.” Laut einer neuen Studie soll dies aber nicht ganz zuverlässig funktionieren, wie Wired in einem längeren Beitrag berichtet . Fünf Wissenschaftler der Universitäten University of Southern California und Tsinghua University hatten das Verhalten von Apples neuem Privatsphäre-System unter Sierra und iOS 10 beobachtet und einige problematische Eigenschaften festgestellt: So kann Apple anscheinend selbst festlegen, wie stark privaten Daten wie Links, Emojis, oder neue Wörter anonymisiert werden, was sich während des Tests auch änderte. Nach Meinung der Professorin Aleksandra Korolova, die für Google ein eigenes Differential Privacy System namens RAPPOR entwickelt hat, ist der Grad der Anonymisierung zu schwach. Vor allem iOS ist anscheinend betroffen, der als „Epsilon“ bezeichnete Grad der Anonymisierung erreiche hier gerade einen Wert von 14, bei macOS einen Wert von 5. Laut dem Entwickler Frank McSherry sei aber jeder Wert über eins problematisch, bei einem Wert von 14 aber wirkungslos. Bedenklich sei vor allem, dass bald auch Gesundheitsdaten ausgewertet werden. Vor allem seltene Erkrankungen könnten eine schnelle Identifizierung eines Nutzers ermöglichen. Gegenüber Wired hat Apple die Ergebnisse der Studie bestritten, so hätten die Forscher bei der Wertung die Werte mehrerer Datentypen zusammengezählt und es gäbe weitere Methoden für die Gewährleistung der Privatsphäre – etwa den Verzicht auf das Erstellen von Profilen oder Sammeln von IP-Adressen.
Unsere Meinung: Die Bewertung der Studie ist nur schwer möglich, da Apple bisher sein Konzept der Differential Privacy nie genauer dokumentiert hat. Zumindest der Vorwurf der Forscher, Apple solle seine Technik genauer erläutern, klingt für uns aber sehr gerechtfertigt. Die These, Google habe mit dem System RAPPOR das überlegene System, erscheint uns dagegen zweifelhaft. Anscheinend hat Google RAPPOR zwar entwickelt, aber im Unterschied zu Apple System gar nicht in Gebrauch. Nur Firefox scheint den Einsatz zu testen .
News
Studie kritisiert Apples Privatsphäre-System Differential Privacy
Apples System für den Schutz der Privatsphäre soll laut einer Studie einige wesentliche Lücken haben - im Gegensatz zu einem System von Google.

Image: IDG