Der allgemeine Tenor in der Diskussion um ChatGTP und Konsorten ist, dass Apple auf dem Feld hoffnungslos rückständig sei, fühlt sich doch Siri im Vergleich damit wie aus dem vergangenen Jahrhundert stammend an.
Doch Cupertino forscht und arbeitet im Bereich Maschinelles Lernen (ML) und Künstliche Intelligenz (KI) seit Jahren, die Ergebnisse ziehen nach und nach in iOS und macOS ein. Mit der aktuellen Ankündigung zum Welttag der Barrierefreiheit gibt Apple einige neue Funktionen bekannt, um die sich auch die Generative-AI-Startups wettstreiten. So wird es in der Zukunft möglich sein, direkt auf dem iPhone eine eigene synthetische Stimme zu erstellen und damit Text in Sprache verwandeln.
Unterstützung für Menschen mit Beeinträchtigung
Dieses Feature hat Apple für Menschen vorgesehen, die durch kognitive Beeinträchtigungen ihre Sprechfähigkeit verlieren. Vor allem Patienten mit der Diagnose Amyotrophe Lateralsklerose (ALS) wie Stephen Hawking können in frühen Krankheitsstadien ihre eigene Stimme festhalten, um danach mit der Umwelt in der gewohnten Tonlage zu kommunizieren.
Apple verspricht lediglich 15 Minuten Trainingszeit, damit das iPhone die eigene Stimme digitalisiert und in der Zukunft damit vorsprechen kann. Bislang wird die Funktion nur in Englisch verfügbar sein, die ganze Verarbeitung und Generierung findet direkt auf dem iPhone statt – ein deutlicher Vorsprung vor den marktüblichen Text-to-Speech-Tools, die nur eine bestimmte Anzahl an Stimmen zur Auswahl haben und deren Verarbeitung meist auf den Servern der jeweiligen Firma stattfindet.
Die neue synthetische Stimme auf dem iPhone verbindet sich nahtlos mit der weiteren Neuerung im Bereich Barrierefreiheit – Live Speech. Dabei vertont das Gerät den geschriebenen Text bei Telefonanrufen, Facetime-Calls und beim persönlichen Gespräch, sodass sich dies wie eine natürlich gesprochene Reaktion anhört.
Die Lupe wird noch ein Stück besser
Auch für die Menschen mit eingeschränkten Sehfähigkeiten hat Apple eine coole Funktion versprochen: Richtet man die Lupen-Anwendung auf ein Objekt mit einer Beschriftung aus, kann die App die Texte auf dem Objekt vorlesen. Für die Menschen, die die Knöpfe auf der Waschmaschine oder auf der Mikrowelle nur raten können, sicherlich eine große Hilfe.
Eigentlich für Menschen mit kognitiven Beeinträchtigungen ist ein Shortcut gedacht, der ein visuelles Tagebuch in Notizen erstellt, das an Orte, Stellen und Gegenstände erinnert. Doch wie wir uns und die Kollegen im Alltag beobachten, wird dieser Shortcut für deutlich breiteres Publikum interessant sein.
Neben diesen Funktionen gibt Apple in der aktuellen Pressemitteilung eine ganze Reihe weiterer Optionen bekannt, die primär für Barrierefreiheit gedacht sind. Dazu gehören SignTime-Termine auf Deutsch, Stillhalten von GIFs in Safari und Messages, eine vereinfachte Systemdarstellung der Apps für kognitiv beeinträchtigte Menschen und vieles mehr.
Die angekündigten Features werden noch bis Ende 2023 für alle zur Verfügung stehen. Aktuell gibt Apple keine Systemanforderungen bekannt, wir spekulieren darauf, dass mindestens A12 mit der Neuronalen Engine der zweiten Generation benötigt wird. Für die Lupen-Anwendung ist ein Gerät mit eingebauten Lidar-Sensor notwendig, also iPhone 12 Pro und neuer und das iPad Pro 12,9 der vierten Generation und neuer.
Aktuell bester Preis: iPhone 14 Pro 128 GB Dunkellila