Mit recht hoher Wahrscheinlichkeit stellt Apple im kommenden Jahr sein AR/VR-Headset vor, das aber kaum vor Anfang 2023 in den Handel kommen wird. Der Analyst Ming-Chi Kuo , der bereits etliche Details zum kommenden System wissen will, hat nun ein neues in einer Investorennotiz dargelegt. Die Brille verstehe sich auf genaue Erkennung von Handgesten und arbeite dabei ähnlich wie die True-Depth-Kamera, die etwa Mimik auf Animoji überträgt. Doch soll das System in der Brille wesentlich umfangreicher sein und Objekte auch noch die doppelte Entfernung exakt vermessen.
Fortschrittliche Sensorik
Statt einem True-Depth-System wie im iPhone will Apple in seine Brille gleich vier 3D-Lichtsysteme einbauen. Diese sollen nicht nur die genaue Position, sondern auch die Bewegung der Objekte vor ihnen erkennen – perfekt für Handbewegungen. Neben den 3D-Sensoren soll Apples künftige Brille Augenbewegungen nachverfolgen können, Pupillen erkennen, Haut unterscheiden. Die bereits vorhandenen Technologien wie Steuerung per Stimme, Raumerkennung (Lidar in iPads) und Gesichtsausdruckserkennung (wie bei Animoji) dürfen ebenfalls nicht fehlen.
Nach Kuos Angaben wird die erste Generation der AR-Brille bis zu 400 Gramm wiegen, Apple will mit der zweiten Generation das Gewicht reduzieren, Batterie und Prozessoren verbessern. Diese wird jedoch nicht vor 2024 erscheinen.
Dass Apple auf eine Gestensteuerung bei der kommenden AR-Brille setzen kann, klingt zwar futuristisch, für Apple ist das nichts Neues. Denn bereits mit watchOS 8 hat der Entwickler Bedienung per Gesten für seine Uhr eingeführt. Ist die Einstellung aktiviert , kann man mit Faust ballen Wecker stoppen, mit Daumen und Zeigefinger vorwärts und rückwärts auf dem Display scrollen und vieles mehr. Freilich setzt Apple dabei nicht auf True-Depth-System, sondern auf die Bewegungs- und Beschleunigungssensoren der Apple Watch. Wie genau die Funktion auf der Apple Watch funktioniert, haben wir hier beschrieben .