2538684

Warum der A14-Chip im iPhone 12 & iPad Air revolutionär ist

10.10.2020 | 13:27 Uhr | Stephan Wiesend

Der neue A14-Chip des iPad Air liefert stark verbesserte CPU- und Grafikleistung, das ist aber vielleicht nicht das Entscheidende.

Bei der Vorstellung des neuen iPad Air war es auffällig: Nur kurz wurde der revolutionäre A14-Chip des neuen iPad Air präsentiert, dabei handelte es sich doch um Apples neuesten Chip für alle iOS-Geräte. Schnell kam die Vermutung auf, dass Apple erst bei der Vorstellung des neuen iPhone 12 – das ebenfalls diesen neuen Chip erhält – weit mehr Details verraten wird und sich für diese Präsentation einige Höhepunkte aufsparen will.

Tests des neuen iPad Air gibt es immer noch nicht, zumindest keine offiziellen. Erste durchgesickerte Performance-Tests des neuen Chips haben aber schon die von Apple versprochene beachtliche Leistungssteigerung von knapp 40 Prozent bestätigt. Offensichtlich ist Apples neuer 5-nm-Chip deutlich schneller als die Vorgänger. So laufen die beiden Hochleistungskerne des 6-Kern-Systems mit knapp 3 GHz – der A13-Chip des iPhone 11 noch mit 2,66 GHz. Aber auch die Grafikleistung hat Apple extrem verbessert, laut neuesten Geekbench-Werten erzielt der A14 im Metal-Bechmark 12 571 Punkte – und schlägt damit den A12Z des aktuellen iPad Pro (11 665).

Das ist aber offensichtlich noch nicht alles: Wie ein Gespräch des Magazins „Stern“ mit Tim Millet von Apple bestätigte, könnte die neue Neural Engine des A14 vielleicht die wichtigste Neuerung sein – sie kann nämlich manche Aufgaben um den Faktor zwei oder gar zehn beschleunigen!

Auf der Platine scheint diese spezialisierte Recheneinheit mit 16 Kernen den gleichen Raum wie die CPU-Kerne einzunehmen und kann 11 Billionen Rechenaufgaben pro Sekunden durchführen – die Recheneinheit des iPhone X „nur“ 600 Milliarden. Zusätzlich bietet der A14-Chip spezielle „matrix multiplication accelerators“ oder AMB Blocks, die auf Aufgaben aus dem maschinellen Lernen spezialisiert sind. Schnittstelle für diese hochspezialisierten Recheneinheiten ist Core ML. Core ML bietet einem App-Entwickler den Zugriff auf Frameworks wie Vision (Bildanalyse), Natural Language (Textanalyse) und Speech (Audio-zu-Text) und Sound Analysis. Die hohe Leistung, etwa durch die 5-nm-Technologie, sei laut Millet ja noch keine Revolution. Noch wichtiger sei, dass Apple die hohe Leistung der neuen Technologie für tausende Entwickler einfach nutzbar mache. Dazu arbeite Apples Hardware-Team sehr eng mit dem Software-Team zusammen.

Wie während der Keynote gezeigt wurde, ermöglicht das etwa einer App wie Pixelmator Pro völlig neue Funktionen. In Sekunden kann das Tool hochwertigste Skalierungsfunktionen durchführen: Als Beispiel wurde gezeigt, wie eine stark vergrößerte Stelle eines Bildes in Sekunden hochskaliert und geglättet wird – eine Aufgabe, für die man sonst Desktop-Software wie Photolemur benötigt. Auch die Soundanalyse wird beschleunigt, was in der Keynote mit einer Software von Algoriddim vorgestellt wurde. Dessen Software DJ Pro Ai bietet die neue Funktion „Neural Mix“ und kann zwei verschiedene Songs auf gleiche Tonart und Rhythmus bringen: Bietet ein iPad oder iPhone aber eine Neural Engine, kann das Tool sogar einzelne Spuren herausfiltern – in Echtzeit. Man könne dann etwa die „Gitarre von Jimi Hendrix statt des Klaviers von Rihanna“ einbauen. Nach Einschätzung des Entwicklers Karim Morsy eindeutig „der nächste Level“.

Macwelt Marktplatz

2538684