Apples Bedienungshilfen wollen Schnittstellen zwischen Mensch und Maschine für bestimmte Behinderungen zugänglich machen, aber oft verbessern sie die Nutzererfahrungen für alle, man denke nur an das Tippen auf die Rückseite des iPhones oder die Geräuscherkennung.
Die neue Funktion „Live-Untertitel“, die sich derzeit auf bestimmten Geräten und nur in bestimmten Ländern in englischer Sprache als Beta testen lässt, ist ein gutes Beispiel dafür. Ziel von Apple ist es, alle von Ihrem Gerät produzierten Audiodaten in exakt transkribierten, lesbaren Text zu verwandeln, ähnlich wie die Funktion „Live-Text“ Text aus Bitmap-Bildern extrahieren kann.
Voraussetzungen: Bisher leider nur auf Englisch
Um die Funktion zu aktivieren, benötigen Sie ein iPhone 11 oder höher mit installiertem iOS 16, ein relativ aktuelles iPad mit iPadOS 16 oder einen Apple-Silicon-Mac (M1 oder M2) mit installiertem macOS Ventura. Bei iPhones und iPads funktionieren Live-Untertitel laut Apple nur, wenn die Gerätesprache auf Englisch (USA) oder Englisch (Kanada) eingestellt ist. In der macOS-Beschreibung heißt es, dass die Beta-Version „nicht in allen Sprachen, Ländern oder Regionen verfügbar ist“.
Wenn Sie Live-Untertitel verwenden können (oder überprüfen möchten, ob Sie es können), gehen Sie zu Einstellungen (iOS/iPadOS)/Systemeinstellungen (Ventura) > Barrierefreiheit. Wenn Sie das Element Live-Untertitel (Beta) sehen, können Sie es verwenden. Tippen oder klicken Sie, um es zu aktivieren. Sie können dann in iOS/iPadOS auf „Darstellung“ tippen oder in macOS die Menüpunkte auf der obersten Ebene verwenden, um zu ändern, wie die Untertitel angezeigt werden. Sie können Live-Untertitel in Facetime separat aktivieren oder deaktivieren, damit die Untertitel in dieser App angezeigt werden.
Lesetipp: Diese Versprechen von 2022 muss Apple 2023 erfüllen
Live-Untertitel werden als Overlay angezeigt, das die Interpretation von Audio in englischer Sprache für jeden von Ihrem System erzeugten Ton anzeigt. Eine Live-Audiowellenform entspricht dem Ton, den die Funktion „hört“. Unter iOS und iPadOS können Sie auf das Overlay tippen und auf zusätzliche Steuerelemente zugreifen: Minimieren, Pause, Mikrofon und Vollbild; unter macOS sind Pause und die Mikrofon-Schaltfläche verfügbar. Wenn Sie auf das Mikrofon-Symbol tippen oder klicken, können Sie sprechen und das Gesagte auf dem Bildschirm anzeigen lassen. Das kann praktisch sein, wenn Sie jemandem den Text zeigen wollen, den Sie gerade sagen.

Foundry
Der in Live-Untertitel erzeugte Text ist flüchtig: Sie können ihn nicht kopieren oder einfügen. Er ist auch resistent gegen mobile Bildschirmaufnahmen: Das Overlay wird offenbar so erzeugt, dass iOS und iPadOS es nicht erfassen können.
Live-Untertitel ist sehr vielversprechend – etwas, das man im Auge behalten sollte, wenn es verbessert und erweitert wird. Ich habe die Funktion mit Podcasts, Youtube und Instagram-Audio getestet. Es war nicht so gut wie einige KI-basierte Transkriptionen, die ich gesehen habe, wie z. B. bei Videokonferenzen, aber es besser als keine Untertitel zu haben.

Foundry
Apple könnte Live-Untertitel mit der eingebauten Übersetzungsfunktion verknüpfen, und Sie könnten damit in Ihrer eigenen Sprache sprechen und jemandem eine übersetzte Version in seiner Sprache zeigen, oder Live-Transkriptionen von Videostreams, Podcasts und anderen Audiodateien in einer anderen Sprache haben als der, die Sie sprechen.
Dieser Artikel ist zuerst auf Macworld.com erschienen und wurde aus dem Englischen übersetzt.