Apple ist anscheinend auf Promo-Tour für seine neuen Prozessoren M2 Pro und M2 Max, denn gleich nach dem Interview mit “TechCrunch” über die von M1 und M2 ausgehende Laptop-Revolution haben drei hochrangige Apple-Mitarbeiter Fragen des Youtubers Andru Edwards zu den neuen Chips beantwortet.
Diesen stellten sich Laura Metz, Director des Produkt-Marketings, Anand Shimpi vom Hardware-Engineering und Tuba Yalcin aus dem Pro-Workflow-Team.
Während sich viele Fragen um die neuen Macbooks und den neuen Mac Mini drehte, hat Edwards eine Frage für “Fünfjährige” gestellt: Während die meisten die Konzempte von CPU und GPU zumindest etwas verstehen und begreifen, was ungefähr der Arbeitsspeicher erledigt, – die Konzepte stammen ja von den traditionellen Computern und sind seit Jahrzehnten vorhanden, – keiner versteht so richtig, was die Neuronale Engine auf dem Chip erledigt.
CPU, GPU, RAM – klar. Aber Neural Engine?
Für die Antwort holt zunächst der Hardware-Ingenieur Anand Shimpi etwas aus: Apple hatte zum ersten Mal eine Neural Engine in einem iPhone X und iPhone 8 im Jahr 2017 eingebaut. Der Hintergedanke dabei war, die Geräte auf die aufkommenden Technologien für maschinelles-Lernen vorzubereiten. Ist eine Aufgabe auf dem iPhone oder auf dem Mac für Modelle des maschinellen Lernens vorgesehen, wird diese an Neural Engine geschickt, die Engine ist dafür konzipiert worden, solche Aufgaben schneller und effizienter zu erledigen als CPU und GPU auf dem Chip, da diese eher eine breite Spezifikation haben.
Laura Metz erklärt dann die Neural Engine am Beispiel der iPhone-Fotografie: Der zusätzliche Chip ist eng mit dem Image-Processing-Chip des iPhones verbunden. So kann das Gerät, ohne den Hauptprozessor anzusprechen, die Verbesserungen am Motiv oder am gemachten Foto direkt im Hintergrund und in Echtzeit zu erledigen, ohne dass der Nutzer etwas dabei merkt. Was genau die iPhone-Kamera bzw. der Image-Processing-Chip im Geräte in Bezug auf die Fotografie erledigen, haben wir in diesem Artikel beschrieben: “Wie die iPhone-Kamera die Spiegelreflex eingeholt hat”.
iOS 16 am besten ab A12
Eine gute Übersicht aller Funktionen, die Apple für Neural Engine am iPhone oder iPad vorgesehen hat, bietet die Übersichtsseite von iOS 16. Einige iOS-16-Funktionen sind nur für die iPhones ab iPhone XS und iPhone XR verfügbar, verlangen also den A12-Chip. Das Besondere daran: In diesem Chip hat Apple die Neural Engine der zweiten Generation eingebaut, im Unterschied zur Neural Engine der ersten Generation mit ihren zwei Kernen hat Apple bei der zweiten Generation gleich auf acht Kerne umgestiegen.
Dazu hat das Unternehmen im gleichen Jahr noch eine spezielle Schnittstelle dafür namens Core ML veröffentlicht. Mittlerweile ist Neural Engine (mit A14) auf 16 Kerne angekommen. Dementsprechend lang ist die Liste der iOS-Funktionen, die nur neuere Generationen des Extra-Chips erledigen: Alles, was mit Live-Text-Erkennung verbunden ist, benötigt mindestens Neural Engine der zweiten Generation. Das Gleiche gilt für Siri, die Echtzeitfunktionen wie Hybrides Diktieren, Emoji-Diktat und Echtzeit-Untertiteln. Wir vermuten mal, dass Apple in diesem Herbst die Unterstützung von iPhone X und iPhone 8 durch iOS 17 streicht, weil die eingebaute Neural Engine der ersten Generation nicht mehr den aktuellen Aufgaben des iPhones gerecht wird.
Aktuell bester Preis: iPhone 14 Pro 128 GB in Schwarz