Interviews mit Apple-Managern sind nicht mehr so selten wie in früheren Jahren, Apple ist hier viel offener geworden. Ein besonders ausführliches Interview zum Thema Siri konnte jetzt Steven Levy von Backchannel führen – und erhielt unter anderem von Eddy Cue, Craig Frederighi und Siri-Leiter Alex Acero einen spannenden Einblick in Hintergründe des Siri-Projekts und Apples kommende Pläne. Offensichtlich hat sich Apple entschlossen, etwas mehr über die Nutzung von künstlicher Intelligenz und maschinelles Lernen in Projekten wie Siri zu berichten.
Siri: Die lustigsten Fragen und Antworten
Wie Levy erfuhr, hat Apple Siri schon seit der Einführung 2011 entscheidend verbessert. Zu Beginn hatte der Sprachassistent großen Eindruck gemacht, bald stellte man aber die Schwächen des noch eher einfachen Systems fest. Ab Juli 2014 gab es dann die erste große Revision: Apple stellte Siri ohne öffentliche Ankündigung auf Deep Learning, also Technologien wie maschinelles Lernen, Deep Neural Networks um. Nutzer konnten dies vor allem an der größeren Zuverlässigkeit merken, die Ergebnisse überraschten alle. Laut Eddy Cue wären die Ergebnisse so gut gewesen, dass man hätte vermuten können, jemand hat sich (bei der Auswertung) um eine Nachkommastelle geirrt.
Apples Verschwiegenheit zu eigenen Forschungen sei bei der Suche nach Mitarbeitern allerdings ein Problem, so wäre die Arbeit bei Apple nichts für Wissenschaftler, die ihre Ergebnisse publizieren wollen. So arbeiteten bei den Projekten zu Themen wie AI oft Wissenschaftler aus anderen Forschungsbereichen. Apple hat aber außerdem immer wieder Unternehmen aus dem Bereich AI übernommen zuletzt das Startup Turi .
Apples künstliche Intelligenz oder AI käme bereits unerkannt in vielen Systemfunktionen zum Einsatz kommen, beispielsweise wenn ein iPhone einen Anrufer identifiziert, der nicht in der Kontaktliste aber in einer E-Mail erscheint. Ebenso kommt AI zur Anwendung, wenn das System Apps als Favoriten vorschlägt oder eigenständig den Ort eines geparkten Autos anzeigt. Erstellt Apple Fotos ein Mini-Video und schlägt die News-App Nachrichten vor, steckt ebenfalls eine künstliche Intelligenz dahinter.
Aber auch andere Bereiche profitierten von diesen Entwicklungen, etwa die Diktierfunktion oder die Sprachsteuerung des Apple TV.
Grundlage bildet bei einem iPhone ein dynamischer Cache im Betriebssystem, knapp 200 MB groß, der unter anderem die Nutzung von Apps und Interaktionen mit anderen Personen erfasst und zugleich Modelle für Sprach-, Szenen und Gesichtserkennung beinhaltet. Spotlight, Safari und Karten könnten darauf zugreifen.
Privatsphäre
Der große Unterschied zu Konkurrenten wäre aber die Beachtung der Privatsphäre.
Für maschinelles Lernen sind Nutzerdaten essentiell, sehr persönliche Daten blieben aber auf dem Rechner des Benutzers. Die App-Vorschläge, die man bei einem Mobilgerät nach einem Streichen nach rechts sieht, berechnet das System beispielsweise ausschließlich auf dem jeweiligen Gerät. Laut Craig Frederighi wären sie aber trotzdem zu 90 Prozent zutreffend. Das gilt auch für persönliche Daten wie die Wortvorschläge der Tastatur und private Ereignisse wie Flüge und Kontakte. Diese Daten landen außerdem nur aufbereitet in einem Backup, Apple habe darauf keinen Zugriff.
Das Prinzip stößt allerdings an Grenzen, da eine künstliche Intelligenz mit Daten trainiert werden muss – je mehr desto besser. Laut Recherchen von Levy hätte dies schon zu Problemen bei der Suche nach AI-Spezialisten geführt, da diese sich durch Apples Vorgaben zu stark eingeschränkt fühlten. Der Vorwurf stünde im Raum, Apple nähme es mit Ai nicht wirklich ernst.
Ab iOS 10 will Apple deshalb mit dem neuen System Differential Privacy Nutzerdaten zentral auswerten, allerdings nur verschlüsselt und anonymisiert. Dabei handelt es sich um ein komplexes System, das die Sicherheit der Privatsphäre sicherstellen soll. Frederighi zufolge werde Apple in Kürze einen Bericht zu diesem Thema veröffentlichen. Das erste Ziel von Apple sei aber ein besseres Produkt zu schaffen. Der Endkunde solle laut Phil Schiller die neue Technologie auf eine Weise kennen lernen, wie man sie bei allen Apple-Geräten schätzt. Der Nutzer würde über die Nutzung einer Funktion nicht größer nachdenken, bis er sich beim dritten Mal sich plötzlich frage „Wie funktioniert das überhaupt?“.