2552924

Wie Apple einen "Knopf" erfand, um zwei andere zu ersetzen

05.12.2020 | 15:30 Uhr | Halyna Kubiv

Nach dem Welt-AIDS-Tag am Dienstag begeht Apple heute den Internationalen Tag der Menschen mit Behinderungen.

Mit dem Start von iOS 14 im September hat sich eine besondere Funktion zu DEM Geheimtipp bei den Nutzern entwickelt: In den Einstellungen kann man nun einrichten, dass das iPhone auf ein Doppelt- oder Dreifachtippen der RĂŒckseite reagiert und eine bestimmte Aufgabe erfĂŒllt. Wie dies genau funktioniert, haben wir hier beschrieben . Um die Funktion zu erreichen, wechselt man in den allgemeinen Einstellungen zu den "Bedienungshilfen".

Das Team bei Apple, das sich um die Funktionen fĂŒr die Menschen mit Behinderungen kĂŒmmert, wurde wohl in diesem Herbst zum heimlichen Star in den Social Media. Die RĂŒckseitetipp-Funktion ist nicht umsonst in dem Accessibility-Team bei Apple entstanden, damit wollte der Hersteller kompensieren, was man einer bestimmten Zielgruppe der Nutzer genommen hat, nĂ€mlich den Home-Button. Wir erinnern uns an das Jahr 2017 : Mit dem iPhone X wurde die Bedienung des iPhones etwas anders, der Wisch nach oben hat den Home-Button in den meisten FĂ€llen ersetzt, nur bei den Screenshots musste man sich umstellen. Statt Home- und Power-Button zu drĂŒcken, muss man  nun Lauter/Leiser- und Einschaltknopf betĂ€tigen. Die neue Methode hatte jedoch die Menschen mit motorischen EinschrĂ€nkungen benachteiligt, die Zielgruppe tat sich deutlich schwieriger mit dem gleichzeitigen DrĂŒcken der beiden Seiten des iPhone. Der Doppel- oder Dreifachtipp auf der RĂŒckseite war eigentlich eine Idee, die Screenshots fĂŒr Menschen mit bestimmten Behinderungen leichter zu machen, die VerknĂŒpfung mit Siri-Kurzbefehlen brachte einen Mehrwert fĂŒr alle Nutzer. Im Hintergrund ist vor allem der Beschleunigungssensor eines iPhones dafĂŒr zustĂ€ndig, die ErschĂŒtterungen des GerĂ€ts wahrzunehmen, die Algorithmen des maschinellen Lernens tun das Übrige: Offenbar ist das Bewegungsmuster beim Doppeltippen so markant, dass die Software leicht den bewussten Befehl des Nutzers von einer zufĂ€lligen Bewegung unterscheiden kann. Je mehr man die Funktion nutzt, desto genauer wird sie.

iPhones Lupe mit Lidar wird zum virtuellen Auge

Die aktualisierten Bedienungshilfen von iOS 14 bieten noch deutlich mehr, Apple hat extra dafĂŒr eine Webseite mit den relevanten Informationen zusammen gestellt . Leider geraten nur die wenigen davon an die OberflĂ€che des allgemeinen Publikumsinteresses, obwohl sich manche Funktionen selbst 2020 wie Science Fiction lesen. Das beste Beispiel dafĂŒr ist die Personenerkennung der Lupen-Funktion auf dem iPhone 12 (Pro und Pro Max) . Kurz um: Das Smartphone kann nicht nur die Personen in der nĂ€heren Umgebung erkennen und den Abstand zu ihnen messen, mit der aktuellen Version von iOS 14 ist es möglich, per VoiceOver sich die gesamte Umgebung beschreiben zu lassen. Um dies zu bewerkstelligen, waren mehrere neue und alte Bausteine aus Apples Entwickler-Kiste notwendig.

Die Idee entstand auf Anfrage sehbehinderter Nutzer, Hilfe bei Alltagssituationen wie in der Schlange beim Einkaufen zu bekommen. Sich gegen einen Bordstein mit dem Stock zu orientieren ist kein großes Problem, bei den Mitmenschen stĂ¶ĂŸt diese Orientierungshilfe an ihre Grenzen. Apples ARKit konnte schon seit iOS 12 die AbstĂ€nde messen, die App "Maßband" kann man sich aus dem App Store seitdem laden. Der Lidar-Sensor im iPad Pro und in iPhone 12 Pro (Max)  stellt diese virtuelle Messung auf ein neues Niveau: AbstĂ€nde von null bis vier Metern sind messabr, auch Personen in Bewegung werden erfasst.

Und woher weiß die Software, dass es sich um Menschen handelt? Die Lösung dieses Problems lieferten höchstwahrscheinlich die Spiele- bzw. AR-Entwickler bei Apple: Bereits mit iOS 13 und ARKit 3 wurde die sogenannte People Occlusion vorgestellt, die Einschließung einer realen Person in die virtuelle RealitĂ€t. Eine der lustigsten Illustrationen dafĂŒr liefert ĂŒbrigens Clips, die Video-App von Apple, dort kann man sich in eine virtuelle Welt versetzen, beispielsweise in einen Western.

Mit iOS 14 hat Apple seinem Bilderkennungs-Algorithmus ein weiteres Update spendiert, das System kann nun Bilder in kohĂ€renten SĂ€tzen beschreiben. Momentan funktioniert dies auf Englisch, die Erkennung findet jedoch auf dem GerĂ€t statt. DafĂŒr muss man einige Dateien auf das iPhone laden, die Funktion aktiviert man in den Einstellungen -> Bedienungshilfen -> Voice Over -> VoiceOver-Erkennung -> Bildbeschreibungen.

Die Lupe, mit der sich auf dem iPhone 12 die Personenerkennung einschalten lĂ€sst, kann man ebenfalls in dem Bereich "Bedienungshilfen" aktivieren. Die Funktion ist ebenfalls ĂŒber das Kontrollzentrum zu erreichen. Das iPhone kann den Nutzern ĂŒber sich nĂ€hernde oder entfernende Personen nicht nur per Sprachausgabe warnen, möglich sind auch Vibrationsmuster und ein Piepton. Der Nutzer kann in der App ebenfalls einen Radius festlegen , ab welchem das GerĂ€t warnen soll, wenn jemand diese Grenze ĂŒberschreitet – besonders in Zeiten von Sozialdistanz eine nĂŒtzliche Funktion.

Apples Mission, GerĂ€te fĂŒr alle zu erstellen

Das sind nur zwei von vielen Funktionen, die Apple fĂŒr Menschen mit Behinderungen zur VerfĂŒgung stellt. Deutlich mehr sind auf der neuen Seite zu finden , die die Featrues nach den Einsatzbereichen gliedert. Denn was sich fĂŒr einen Otto Normalverbraucher als eine Nichtigkeit darstellt, kann einen behinderten Menschen vor ein Problem stellen. Dave Steele, auch als "The Blind Poet" bekannt, hat dies trefflich zusammengefasst: "Personenerkennung und andere Bedienungshilfen auf dem iPhone 12 Pro sind eine große Hilfe fĂŒr mich und andere in der Blinden-Community. Einhalten von Distanz in Zeiten von Covid-19 und die Orientierung in manchen Orten sind fĂŒr die meisten eine SelbstverstĂ€ndlichkeit, fĂŒr uns wĂŒrde dies eine Unsicherheit bedeuten, die diese GerĂ€te uns nehmen."

Macwelt Marktplatz

2552924