Alexa ist momentan der Publikumsliebling. Amazon hat sich wohl für etwas laxere APIs bei dem eigenen digitalen Assistenten entschieden, so entwickelt sich momentan Alexa zu einer IFTTT auf dem smarten Lautsprecher. Freilich haben Alexa Skills auch ihre Nachteile: Die Befehle müssen eine bestimmte Struktur haben, damit Alexa den Nutzer überhaupt versteht. Die Fülle der unterstützten Dritt-Geräte und Dienste beeindruckt dennoch: Amazon gibt an , aktuell rund 40 000 Alexa Skills zur Verfügung zu stellen.
Auch Google wusste vor einem Monat auf der eigenen Entwicklerkonferenz zu beeindrucken: Mit Google Duplex sollte der persönliche Assistent auf ein neues Niveau gelangen. Die künstliche Intelligenz dahinter ist angeblich so weit fortgeschritten, dass der Roboter im Gespräch mit einem Menschen unerkannt bleibt, ein Gesprächspartner hielt Google Duplex in einem Telefonat für ein menschliches Wesen . Turing-Test bestanden: Das hat natürlich sowohl Begeisterung als auch ethische Diskussionen hervorgerufen: Darf sich eine Maschine als ein Mensch ausgeben? Muss eine Technologie-Firma bei der Entwicklung auch Verantwortungsaspekte für seine Produkte beachten, oder geht es hier nur um Fortschritt bar jeder Moral?
Siri öffnet sich und bringt Shortcuts
Und Siri? Zuletzt hat Apple endlich den eigenen digitalen Assistenten ein wenig für Dritt-Entwickler geöffnet. Doch offenbar war dies nicht genug: Zum einen wurden nur bestimmte Arten von Apps zugelassen wie beispielsweise Finanz-Apps, zum anderen waren selbst für diese Programme die Funktionen recht beschränkt. Man kann beispielsweise per Siri ein Training starten und dieses verwalten , also beenden oder pausieren. Es lässt sich aber nicht noch die passende Wiedergabeliste damit verbinden oder abspielen, Abfragen zum aktuellen Kilometer- oder Kalorienstand sind unseres Wissens bisher ebenfalls nicht möglich.
Mit einem solchen API-Korsett, verbunden noch mit den eigenen Datenschutzmaßnamen war es kein Wunder, dass Siri über die Jahre in Rückstand geraten ist. Doch mit der WWDC 2018 ändert sich alles. Zwar hat Apple die neuen Funktionen auf der Keynote innerhalb nur weniger Minuten vorgestellt. Doch Neuerungen haben es in sich, sind dennoch schnell erzählt: Siri kann mehrere Abläufe in eine komplexere Handlung zusammenfassen, daher wohl die Namensgebung “Shortcuts” – also quasi ein Tastaturkürzel zu einem Prozess. Zum anderen, stehen diese Kürzel allen Apps zur Verfügung, keine Beschränkung auf bestimmte Prozesse gibt es nun. Was jedoch am wichtigsten ist: Der Nutzer kann nach Wunsch diese Shortcuts selbst festlegen, quer durch alle Apps, Dienste und Funktionen.
Automator auf neuem Niveau
Wer nach 2016 Angst gehabt hat, Apple würde nach der Entlassung von Produktmanager Sal Soghoian den Automator einen langsamen Tod sterben lassen, durfte bei der aktuellen Keynote eine helle Freunde gespürt haben. Nicht nur lebt die Funktionalität weiter, Apple hat sie an Bedürfnisse von iOS angepasst. Mit Hilfe von dazu gekauftem Know-How der Workflow-HQ-Entwickler – denn auf der Bühne wurde eine rundum erneuerte und generalüberholte Workflow-App gezeigt – hat Apple endlich eine eigene Automatisierung auf dem iPhone und iPad implementiert. Selbst ohne weitere Nebenaspekte wäre dies Grund genug, sofort auf iOS 12 Beta 1 umzusteigen. Doch Apple hat hier deutlich weiter gedacht. Endlich wird maschinelles Lernen nicht nur ein Trend-Wort, über das alle reden und keiner so richtig versteht, sondern eine wirklich nützliche Erweiterung. Denn damit verfolgt Siri sich wiederholende Muster auf dem iPhone, fasst sie zusammen und schlägt dem Nutzer eine Zusammenfassung davon vor, die er mit einer Schlüsselphrase erledigen kann. Hier spart man viel Zeit, Tipperei und manchmal Nerven. So schön kann der Fortschritt sein!
Aber auch Flexibilität für Siri Shortcuts ist bei Apple ungewöhnlich. Nicht nur sind die Schranken für bestimmte App-Arten gefallen. Noch mehr – selbst die Nutzer können eigene Schlüsselphrasen erstellen und so Siri buchstäblich eigene Sprache beibringen. Zwar hat Amazon mit Alexa Blueprints etwas Ähnliches vor einem Monat ebenfalls vorgestellt, doch Apples System sieht auf den ersten Blick deutlich ausgereifter aus. Hier eröffnen sich weitere Möglichkeiten beispielsweise für den Homepod: Das Gerät hat fast gar keine grafische Oberfläche. Mit Siri Shortcuts kann der Nutzer Homepod-Funktionen an seine eigenen Bedürfnisse, möglicherweise an vorhandene smarte Geräte im Haus anpassen.
Mit diesen drei Aspekten – Automatisierung und Flexibilität für Entwickler und Nutzer kann sich Siri zu einem Quasi-Betriebssystem im Betriebssystem entwickeln und bei Bedarf die grafische Oberfläche ersetzen. Die wichtigste Voraussetzung ist natürlich, dass die Neuerungen genauso zuverlässig funktionieren wie auf der Bühne gezeigt.