Apple an 3D-Kamera-Technologie von Sony interessiert
Normale Fotos produzieren ein flaches Bild – ohne aufwändige Bildanalyse oder zusätzliche Informationen kann kein Computer oder Handy erkennen, welche Objekte sich im Vorder- oder Hintergrund befinden. 3D-Kamerasensoren können zusätzlich zum eigentlichen Bild Tiefeninformationen ermitteln, so dass ein Computer oder Smartphone direkt erkennen kann, welches Objekt mit welcher Form sich im Vordergrund befindet. Die Tiefeninformationen eröffnen vielfältige Möglichkeiten: Für Face ID wertet Apple mit der TrueDepth-Kamera auf der Vorderseite Tiefeninformationen aus, um ein 3D-Modell des Gesichts zu errechnen. Die Kamera auf der Rückseite der iPhones errechnet Tiefeninformationen mit komplexen Algorithmen, welche aber lange nicht so präzise sind wie echte Sensorinformationen. Auf Augmented Reality ist ein großes Anwendungsfeld für 3D-Sensoren.
Bloomberg will nun erfahren haben, dass sich Apple für Sonys 3D-Kamera-Module interessiert. Im Sommer will Sony neuartige Kamera-Module in ausreichenden Stückzahlen ausliefern, welche mittels Laser Tiefeninformationen ermittelt.
Während des Fotografierens werden unsichtbare Laserstrahlen abgegeben – der Sensor ermittelt dann die Zeit, die die Laserstrahlen benötigen, um wieder auf dem Sensor aufzutreffen. Ist die benötigte Zeit gering, befindet sich das Objekt dicht am Betrachter. Dauert es eine länger oder kommt das Licht des Laserstrahls gar nicht mehr auf dem Sensor an, wurde ein weit entferntes Objekt getroffen.
Noch ist natürlich nicht sicher, dass Apple diese Technologie in den 2019er iPhones tatsächlich einsetzen wird. Es ist nicht bekannt, ob Sony für Apple ausreichende Stückzahlen fertigen kann und ob die erste marktreife Iteration des 3D-Kamera-Sensors Apples Standards erfüllt.