2445196

Apple und der Datenschutz: Vertrauensverlust droht

30.07.2019 | 12:36 Uhr | Peter Müller

Bleibt nicht mehr alles auf dem iPhone, was dort passiert? Die Befürchtungen sind weit größer als die tatsächlichen Gefahren, aber Apple sollte aufpassen, dass der Ruf nicht Schaden nimmt.

Apple stoppt Siri-Auswertung

Apple hat auf den Bericht des Guardian und die damit verbundene Kritik an der Auswertung von Sprachaufnahmen reagiert. Wie das Unternehmen am 1. August gegenüber TechCrunch erklärte , werde man vorerst sie Auswertung weltweit stoppen und die Verfahren überprüfen. In einem zukünftigen Softwareupdate werde man eine Option einrichten, die es Nutzern ermöglicht, die Auswertung ihrer Siri-Gespräche zu verbieten.

Drei Meldungen aus der letzten und dieser Woche, die zusammengehören und irgendwie auch nicht.

In Hamburg und Berlin hängt Apple riesige Plakate auf, die den Datenschutz des iPhone bewerben - im Frühjahr hatte man das auch schon in Las Vegas so gehandhabt.

Ein Whistleblower erzählt von seinem Arbeitsalltag bei der Qualitätssicherung von Siri und berichtet , er habe Stimmen von Leuten gehört, die sich über ihre Gesundheit unterhielten, illegale Geschäfte anbahnten oder Geschlechtsverkehr hatten – gewiss wollte niemand der Belauschten, dass ihre Gespräche in die Ohren Dritter gelangten.

Und der Datenschutzbeauftrage des Bundeslandes Thüringen, welches von Apples Kameraautos flächendeckend Besuch erhalten wird, warnt davor, dass die aufgenommenen Fotos von Autos, Personen und Gebäuden unverpixelt auf Servern in den USA liegen würden .

Stolz hatte Apple immer wieder das Mantra wiederholt: "Was auf dem iPhone passiert, bleibt auf dem iPhone." Das gilt offenbar nicht absolut. Droht nun der Vertrauensverlust?

Bevor nun aber das Geschrei anhebt, Apple sei auch nicht vertrauenswürdiger als die altbekannten "Datenkraken" Google, Amazon und Facebook, lohnt ein genauerer Blick.

Apple schreibt den Schutz der Privatsphäre seit Jahren groß und setzt damit bewusst ein Distinktionsmerkmal zur Konkurrenz. Richtig: Apple will Produkte verkaufen und keine Kundendaten an die Werbeindustrie. Auch richtig: Apple will zudem Services verkaufen, diese sollen mit der Zeit immer besser und intelligenter werden. Was das iPhone etwa mit seinen neuronalen Chips an On-Board-Intelligenz bietet, ist beeindruckend. Um etwa Fotos besser zu machen oder die darauf abgebildeten Personen besser unterscheiden zu können, kommt keine Rechenpower von Serverfarmen zum Einsatz, die sonst wo stehen könnten. In Russland beispielsweise, um uns vordergründig einen Spaß an unserem um Jahrzehnte gealterten Antlitz zu bereiten .

Aber auch Apple kommt natürlich nicht ohne den Einsatz von tiefer gehenden Analysen großer Datenmengen aus. Differential Privacy lautet hier das Stichwort : Apple verspricht, Daten etwa über Wege nur in Teilen zur Analyse zu verwenden und zu anonymisieren. Diese Prinzipien wendet Apple offensichtlich auch bei der Verbesserung von Siri an, nicht wenige Experten sind der Ansicht, bei der Weiterentwicklung maschineller Intelligenzen gerate Apple ins Hintertreffen, weil die Konkurrenz weniger Skrupel zeige .

Zur Analyse von Sprache setzt Apple laut eigener Auskunft gerne Podcasts ein : Diese Gespräche sind öffentlich und liegen unter Umständen auch transkribiert vor. Das reicht aber nicht. Der Wahrheitsgehalt des Guardian-Berichts ist von unserer Seite nicht überprüfbar, wir vertrauen aber den Kollegen im UK, hier keinem Aufschneider auf den Leim gegangen zu sein, sondern von einem echten Mitarbeiter der Siri-Qualitätskontrolle die tatsächlichen Vorgänge geschildert bekommen zu haben. Plausibel ist der Bericht allemal, Apple räumt ja selbst ein, Sekundenausschnitte von etwa einem Prozent der Siri-Konversationen von menschlicher Intelligenz analysieren zu lassen. Das dürfte auch unerlässlich sein, um falsche von echten Triggern besser unterscheiden zu lernen. Niemand will, dass Siri mithört, obwohl sie nicht gemeint ist - und nicht nur aus Gründen der Privatsphäre. Schließlich soll Siri besser werden und sich nur dann den virtuellen Kopf zerbrechen, wenn es Sinn ergibt und nicht, wenn wir den Reißverschluss der Jacke geräuschvoll öffnen.

Was aber einen faden Beigeschmack gibt: An keiner Stelle der Inbetriebnahme von Siri auf Mac, iPad, iPhone, HomePod und AirPods werden wir darauf hingewiesen, dass zufällige Sprachschnippsel an Apple zur Verbesserung des Services übermittelt werden könnten. Abschalten können wir das nur über Umwege und nicht mit einem offen liegenden Schalter in iOS und macOS . Hier muss Apple dringend nachbessern.

Das Dilemma ist ja klar ersichtlich: Wir wollen die besten Services und wenn wir uns ein Reiseziel aussuchen, ist Look Around ein phantastisches Feature - aber wollen wir, dass sich wildfremde Menschen virtuell vor unserem Haus in alle Richtungen umschauen können? Auch hier hilft nur Transparenz - und eine selbstverständliche und dauerhafte Verpixlung von Gesichtern oder Nummernschildern, die am Besten sofort bei der Aufnahme greift und nicht erst bei der Bearbeitung.

Das Vertrauen, dass unsere Daten bei Apple sicher sind, macht das Unternehmen und seine Services erst so stark. Wie wollten wir sonst mit Apple Pay bezahlen oder all unsere privaten Fotos bei uns behalten, wenn diese auf dem iPhone nicht sicher sind? Was auf dem iPhone passiert, bleibt auf dem iPhone. Apple darf keinen Zweifel daran aufkommen lassen, dass die wenigen Daten, die von dort dort abfließen, auf den Servern in Cupertino genau so geschützt sind, als hätten sie das iPhone nie verlassen. Und den Skeptikern unter uns wenigstens die Möglichkeit geben, den Datenabfluss komplett zu sperren. Selbst wenn das auf Kosten der Servicequalität geschieht.

Macwelt Marktplatz

0 Kommentare zu diesem Artikel
2445196