Macwelt wünscht einen guten Morgen!
Natürlich wissen Sie als langjährige Macwelt-Leser, was ein Captcha ist. Etwa dieses nur schwer lesbare Bild, das unter manchen Webformularen steht, damit diese nicht von Maschinen für massenhafte Aussendung von Daten und Botschaften benutzt werden können. Oder auch die Bilder, bei denen man genau hinschauen muss, ob auf diesem Feld noch eine Ampel oder ein Fahrzeug zu sehen ist oder etwa nicht. Aber wussten Sie auch, dass der 23. Juni an sich als “Tag des Captchas” im Kalender stehen sollte? Nein?
Nun, es verhält sich folgendermaßen: Captcha ist ein Akronym wie ADAC, EDV oder TÜV und müsste daher an sich in Großbuchstaben geschrieben werden: CAPTCHA. Dieses steht für C ompletely A utomated P ublic T uring test to tell C omputers and H umans A part und beschreibt somit genau, was es macht und woher es kommt. Was es macht: Es stellt eine Frage oder mehrere, die nur Menschen beantworten können sollten und eben keine Maschinen.
Woher es kommt: Von den Theorien des britischen Mathematikers und Vater der Informatik Alan Turing, am 23. Juni 1912 geboren wurde, heute vor 111 Jahren. Turing hatte sich schon längst mit künstlicher Intelligenz beschäftigt, als MLCore noch nicht erfunden war und das Wort Apple im Englischen einen Obstbaum und seine Früchte bezeichnete.
Was, so fragte sich Turing, müsste eine Maschine auf von Menschen gestellten Fragen antworten können, damit der Mensch meint, mit einem Menschen und nicht mit einer Maschine zu kommunizieren? Das CAPTCHA ist also gewissermaßen eine Variante des Turingtests, da hier eine Maschine entscheidet, ob sie es mit einer anderen Maschine zu tun hat oder einem Menschen, der die seltsam verkrüppelte Schrift tatsächlich richtig erkennt oder zwei und zwei korrekt zusammenzählt und mit dem richtigen Wort wiedergibt.
Seine Schnittstellen in den Systemen, die munter auf die neuronalen Kerne der Apple-Silicon-Chips zugreifen, hat Apple unter dem Namen „MLCore“ zusammengefasst. Der Begriff Machine Learning (ML) wäre an sich treffender als der von der Künstlichen Intelligenz (KI) oder der Artificial Intelligence (AI). Denn mögen wir von Siri, Alexa und Konsorten immer als „smarte“ oder gar „intelligente“ Assistenten sprechen, so schlau sind die nicht, dass sie einen Turingtest bestehen würden.
Das ist auch gar nicht deren Ziel, Apple setzt künstliche Intelligenz oder maschinelles Lernen als Werkzeug ein, wie man etwa sehr gut an der Vision Pro wird sehen können, und nicht als Selbstzweck, wie etwa bei generativen Sprachmodellen.
Und doch scheint es, auch mit Apples Hilfe, bald möglich, dass Maschinen den Turing-Test bestehen. Wir stellen uns etwa eine Anordnung vor, in der wir mit einer Vision Pro vor den Augen uns in einem virtuellen Raum mit zwei Avataren treffen. Der eine ist von einem menschlichen Vorbild gestaltet und von diesem ebenso mit Apple Vision gesteuert. Der andere wäre ein komplett von Maschinen generierter Avatar, vom Look über die Stimmgenerierung bis eben zu seinen Antworten. Da wir die reale Person und ihren Avatar noch nie gesehen haben, könnte der Versuch beginnen.
Denn so gut das Sprachmodell von GPT-4 mittlerweile sein mag, spätestens bei der Ausgabe von Sprache auf unseren Computern mag man erkennen, dass da etwas unnatürlich ist. Bei der Verfremdung durch Avatar könnte dieses Distinktionsmerkmal verschwinden. Die Frage ist dann jetzt: Worüber unterhalten wir uns mit der wildfremden Person und der KI, respektive ihren Avataren? In wie vielen Fällen liegen wir mit unserer Einschätzung, ob Mensch oder Maschine, richtig? Das Jahr 2024 könnte das des großen Turingtests werden – und womöglich des ersten Bestehens einer Maschine. Wir müssen uns etwas Besseres ausdenken als Captchas, schon heute.