2482502

iPhone: Wie Xnor.ai Siri offline schalten kann

22.01.2020 | 14:16 Uhr |

Nicht immer sind die Pläne klar, die Apple mit einer Firmenübernahme hegt, der Fall von Xnor.ai ist aber vielversprechend.

Apple kauft im Laufe eines Jahres viele Unternehmen, von denen nur einige für die Nachrichten wirklich interessant sind. Der Kauf des Smartphone-Modem-Geschäfts von Intel im vergangenen Jahr war eine solche , ebenso wie die Übernahme von Shazam im Jahr 2018 , aber Apple sucht aus Gründen, die wir nie kennen werden, größtenteils nach Unternehmen, von denen wir noch nie gehört haben.

Die jüngste Übernahme könnte anders aussehen. Von der Firma Xnor.ai haben Sie vielleicht noch nie gehört, aber sie ist nicht unbekannt. Seit letztem Sommer ist die Technologie des in Seattle ansässigen Startup-Unternehmens das Gehirn hinter der beliebten Funktion der Wyze-Kamera: der Personenerkennung. Einfach ausgedrückt, ermöglichte es der 20-Dollar-Kamera, zwischen Gesichtern, Haustieren und Staub zu unterscheiden. Dies verbesserte ihre Fähigkeiten so erheblich, dass man sie mit den weitaus teureren Ring- und Nest-Kameras vergleichen kann.

Die Personenerkennung von Wyze lief vollständig auf dem Gerät, so dass keine Angst vor dem Hacken von Videos besteht.
Vergrößern Die Personenerkennung von Wyze lief vollständig auf dem Gerät, so dass keine Angst vor dem Hacken von Videos besteht.
© Wyze Labs

Aber der Punkt ist nicht nur, dass die Intelligenz von Xnor.ai in einer günstigen Kamera funktionierte, sondern auch, wie . Die Technik hat nicht nur die Fähigkeiten des kleinen Recorders erheblich gesteigert, sondern schützt auch die Privatsphäre. Edge AI lässt die Algorithmern von Xnor.ai auf der Kamera selbst die Aufnahmen verarbeiten, das heißt: Das Gerät muss keine Bilder an eine weit entfernte Cloud übertragen – also auf den Rechner, der jemand anderem gehört.

Damit ist eines der wichtigsten Kriterien für Datenschutz à la Apple erfüllt. Wir haben schon lange vermutet, dass der Grund, warum Siri hinter Google Assistant und Amazon Alexa zurückbleibt, darin liegt, dass Apple nicht die gleiche Menge von Informationen sammelt wie diese Unternehmen und somit im Nachteil ist. Google und Amazon bieten zwar die Möglichkeit, die Datenschutzeinstellungen anzupassen, aber das Kerngeschäftsmodell beruht auf der Datenerfassung. Es ist einfacher, die KI-Verarbeitung zu verbessern, wenn man einen Berg von Daten hat, mit denen man arbeiten kann, insbesondere wenn man mit Millionen von Nutzern zu tun hat. Aber vielleicht muss es nicht unbedingt so sein.

Siri: Sicher und gesund

Hier kommt Xnor.ai ins Spiel und wahrscheinlich auch deshalb hielt Apple es mehrere Millionen Dollar wert. Ich glaube nicht, dass die Entwicklung von Siri (oder das Fehlen einer solchen) das Ergebnis von mangelnder Zuwendung von Apple ist, sondern eher die Fähigkeiten der KI-Engine. Apple will so viel wie möglich auf dem Gerät verarbeiten, aber die Realität ist, dass dies in Siris Ausmaß einfach nicht möglich ist, zumindest nicht ohne ein wenig Hilfe.

Es liegt nicht an mangelnder Rechenleistung. Apples Bionic-Chips der A-Serie sind sicherlich zu vielem in der Lage. Der A13 auf dem iPhone 11 verfügt sowohl über eine schnellere Neural Engine als je zuvor als auch über eine Reihe von Beschleunigern für maschinelles Lernen, die mehr Aufgaben als je zuvor bewältigen, aber er ist immer noch auf praktische, gerätespezifische Anwendungen wie Akkueffizienz, Stromverbrauch und Grafikbeschleunigung beschränkt.

Aber die Edge-AI-Engine von Xnor.ai könnte das Ding sein, das alles zusammenbringt. Es ist unwahrscheinlich, dass wir im iPhone 12 oder sogar im iPhone 13 die Ergebnisse des Kaufs sehen werden, aber Apples unglaubliche Fortschritte im Bereich der Prozessorentwicklung, gekoppelt mit der Art der KI-Verarbeitung im Gerät, die Xnor.ai mit sich bringt, könnten Siris Fähigkeiten in großem Maße steigern. Durch die Einbettung von Edge-KI in Apples eigenen Chip über die Neural-Engine oder einen neuen Co-Prozessor könnte Siri schneller und weitaus fähiger werden, da sie von dem lernen könnte, was man tut, und die Priorität von Aufgaben in Form von Sachleistungen festlegen könnte. Und das alles könnte offline funktionieren, die enorme Leistung von Apples System-on-a-Chip nutzen und die Arbeit einer leistungsstarken Cloud direkt auf dem Gerät erledigen.

Xnor.ai schätzt, dass Edge AI mit 15x Speicher 10 mal so schnell läuft wie cloudbasierte Systeme, und ein reaktionsschneller Assistent, der direkt auf dem Telefon arbeitet, könnte es Apple endlich ermöglichen, ein Spracherkennungssystem mit nahezu perfekter Genauigkeit zu entwickeln. Wir haben jahrelang darauf gewartet, dass Siri grundlegende Dinge wie die Unterscheidung zwischen den Stimmen verschiedener Benutzer erledigen kann, und Edge AI könnte ein großes Verständnis für den besonderen Klang jedes Benutzers mit sich bringen. Schließlich wissen wir bereits, dass die Wyze-KI von Xnor.ai in der Lage war, Menschen von Haustieren zu unterscheiden, so dass die Unterscheidung von Stimmen nicht allzu schwierig sein dürfte. Das allein würde schon dazu beitragen, die Lücke zwischen Siri und Google Assistant und Amazon Alexa zu schließen. Durch den Aufbau einer leistungsstarken KI-Engine direkt auf unseren Telefonen könnte Apple mit Siri die Dinge tun, die wir uns wünschen, ohne dass unsere Privatsphäre gefährdet wäre.

Dieselbe Engine könnte auch auf Sprachmuster angewendet werden. Siri versteht sich gar nicht so schlecht auf Diktate, aber ständig  "Punkt" und "Komma" sagen zu müssen, nervt auf die Dauer. Die Edge KI könnte unsere Sprachmuster erkennen, so dass sie, wenn wir auf eine bestimmte Art und Weise pausieren, einen Punkt hinzufügt oder wenn wir den Tonfall ändern, ein Fragezeichen setzt.

Lassen Sie uns einen Schritt weiter gehen. Angenommen, Sie schreiben einem Freund via SMS und dieser fragt nach einem Film. Das könnte Siri dazu veranlassen, in Ihrem Gespräch dezent auf bevorstehende Vorführungen hinzuweisen. Oder wenn Sie einen Link in Safari kopieren, könnte ein kluger Vorschlag sofort eine Reihe von Apps präsentieren, bevor Sie überhaupt die Freigabetaste drücken. Solche Dinge würde Apple in der Cloud niemals tun – der Philosophie "Was auf dem iPhone passiert, bleibt auf dem iPhone" gehorchend – aber durch die Verwendung von Edge AI könnte Apple diese Art von Interaktionen auf das iPhone selbst bringen, was Siri eine neue Welt von Möglichkeiten eröffnet.

Und wenn es auf dem Gerät lernt, könnte es wissen, in welcher App wir uns befinden und entsprechend reagieren. Wenn wir also auf Fotos sind, könnten wir sagen: "Teilen Sie das meiner Frau mit", und es würde keiner weiteren Klärung bedürfen. Oder wenn wir einen Nachrichtenartikel in Safari lesen, könnten wir sagen: "Erzählen Sie mir mehr darüber", und es würde die entsprechende Suche durchführen. Oder vielleicht könnte eine automatische Routine vorgeschlagen werden, die auf unseren App-Gewohnheiten basiert.

Fazit

Es gibt eine Menge, was Siri nicht ganz beherrscht, und die Edge-KI-Engine von Xnor.ai könnte dabei helfen, es ihr zu lehren. Und das alles bei gleichzeitiger Einhaltung von Apples Datenschutzversprechen.  Für die Besitzer von Wyze-Kameras wurde das Edge-AI-System von Xnor.ai unglücklicherweise aus dem Verkehr gezogen, aber der Verlust könnte ein Gewinn für Siri sein.

Macwelt Marktplatz

2482502