iPhone 8: Welche Vorteile 3D-Sensoren in der Kamera bieten
Kaum ein iPhone-Bauteil wird konsequent so stark von Apple beworben wie die verbaute Kamera. Bei der letzten Generation kam die Dualkamera ins Apple-Smartphone, die rudimentären optischen Zoom sowie den stilvollen Bokeh-Filter für Tiefenunschärfe ermöglichte. Das diesjährige Jubiläums-iPhone erhält übereinstimmenden Berichten zufolge 3D-Sensoren, um den Abstand der Motive von der Linse einschätzen zu können.
Gesichtserkennung und »Face ID«Zumeist spricht die Gerüchteküche darüber im Zusammenhang mit »Face ID«, also eine Authentifizierungsmethode über Gesichtserkennung. Zweifellos hängt das damit zusammen, dass der für seine akkuraten Prognosen bekannte Analyst Ming-Chi Kuo genau in diesem Zusammenhang von den 3D-Sensoren sprach. Außerdem tauchten bereits Gerüchte auf, nach denen Apple im Notfall den Fingerabdrucksensor Touch ID gänzlich durch Face ID ersetzen wolle (MTN berichtete:
); bei dem Thema ist das letzte Wort aber noch lange nicht gesprochen.
Virtuelle Gegenstände und ARKitDabei hätte eine tiefenmessende iPhone-Kamera noch diverse weitere Vorteile als Gesichtserkennung. Der wohl naheliegendste Zweck ist der Zusammenhang mit ARKit, also Apples jüngste Ambitionen für Erweiterte Realität (Augmented Reality). Virtuelle Gegenstände im Kamerabild der echten Umgebung einzubauen, dürfte bedeutend genauer werden, wenn die entsprechende Kamera Tiefeninformationen hätte. Bei aktuellen iPhones verwendet ARKit einen komplizierten Algorithmus aus optischen Informationen, welche die iSight-Kamera bereitstellt.
AutofokusUnd auch für klassischen Kamera-Funktionen wäre ein 3D-Sensor nützlich. So wäre etwa ein zuverlässigerer Autofokus möglich, wenn die Kamera den tatsächlichen Abstand zum scharfzustellenden Motiv messen kann.
Wie die 3D-Sensoren funktionieren sollenDie Abstandmessung soll übrigens über den Weg der sogenannten VCSEL-Technologie erfolgen (Vertical-cavity surface-emitting laser). Dabei handelt es sich um Oberflächenemitter von Infrarotstrahlen, die rechtwinklig zum Kamerasensor abstrahlen und die Zeit bis zur Ankunft der Reflexionen messen. Auf diese Weise kann der Abstand zu gut reflektierenden Gegenständen berechnet werden. Während Kuo seinerzeit nur von einem solchen Sensor in der FaceTime-Kamera sprach, also derjenigen Kamera, die dem Nutzer zugewandt ist, will Fast Company nun in
Erfahrung gebracht haben, dass auch die rückseitige iSight-Kamera mit denselben Emittern ausgestattet werden soll. Dies ist zweifellos auch sinnvoll, ist die iSight-Kamera doch in der Regel die leistungsfähigere und würde von ARKit und Autofokus deutlich stärker profitieren.
Neue Kamera als Flaschenhals für den TerminplanDie Kehrseite der Medaille besteht aktuell darin, dass immer wieder Berichte auftauchen, denen zufolge Apples Software noch nicht problemlos mit den 3D-Sensoren zusammenarbeiten könne. Deswegen befürchten einige Beobachter gar eine Verschiebung des Produkts oder doch zumindest eine erst nachträglich Freischaltung der 3D-Fähigkeit im iPhone 8 (MTN berichtete:
).