A14-Chip: Apple unterstreicht enormes Potenzial in diversen Bereichen
Apple ist nicht gerade dafür bekannt, mit überschwänglichem Eifer über den Entwicklungsprozess von Chips, Endgeräten und anderen Produkten zu reden – anders sieht die Lage aus, wenn diese Angelegenheiten nicht mehr strengster Geheimhaltung unterliegen. Dann plaudern auch ranghohe Vertreter des Unternehmens aus dem Nähkästchen – zuletzt etwa
John Ternus und Bob Borchers, die sich zum Touch-ID-Sensor im iPad Air 4 und dem A14 Bionic äußerten. Apples potenter 5-nm-Chip ist nicht nur im neuen Tablet verbaut, sondern wird mit großer Wahrscheinlichkeit auch für die Rechenleistung des kommenden iPhone 12 zuständig sein. In den Benchmarks kann der Prozessor bereits punkten – sowohl die Werte für die
Grafikleistung als auch für
Single- sowie Multi-Core stellen die der meisten anderen Chips in den Schatten. Nun meldet sich eine weitere Führungskraft aus Cupertino zu Wort.
A14: Ein weiterer Schub für maschinelles LernenDer
Stern sprach mit Tim Millet, Vice President für Platform Architecture, über die Entwicklung des neuen Prozessors sowie dessen Einsatzgebiete und Möglichkeiten. Apple begeistere sich vor allem für das maschinelle Lernen und die Neural Engine, die im A14 ihren Dienst verrichtet. Zwar lägen die Grundlagen für neuronale Netzwerke dieser Art bereits viele Jahrzehnte zurück, allerdings sei man damals mit zwei Problemen konfrontiert gewesen, so Millet: Es habe an Daten wie an Rechenleistung gefehlt, um komplexe Modelle entwickeln zu können. Der Mitarbeiter sieht das Ende der Fahnenstange noch nicht erreicht: Apple arbeite eng mit Technologiepartnern zusammen und sei längst nicht am Ziel angekommen.
Apple zu Core ML und GesichtsmaskenMillet stellt ebenfalls klar, dass die reine Rechenleistung nicht ausreichend sei, wenn diese nicht in enger Abstimmung mit der Software erfolge: Man arbeite eng mit dem Software-Team zusammen, damit auch iOS-Entwickler davon profitieren. Eine Besonderheit sei die Schnittstelle Core ML – Apple wolle, dass die Masse auf die Möglichkeiten des Prozessors zugreift. Millet geht auch auf das Tragen von Masken ein – es sei schwierig, eine effektive Gesichtserkennung zu ermöglichen, wenn eine Mund-Nasen-Schutz getragen wird. Hier liege ein Spannungsfeld zwischen Sicherheit und Bequemlichkeit vor: Zwar könne man den von der Maske verdeckten Teil des Gesichts aussparen, verliere damit aber wesentliche Merkmale für die Authentifizierung. Das gehe zulasten der Sicherheit – die für Apple an oberster Stelle stehe. Das Unternehmen reagierte bereits: Seit iOS 13.5 erkennt das Gerät, ob der Anwender eine Maske trägt – und fordert diesen dann ohne Umwege zur Eingabe des Entsperrcodes auf.