iPhone 13: Apple erklärt den "Cinematic Mode"
Smartphone-Kameras weisen prinzipbedingt eine ganz bestimmte Schwäche auf. Wegen ihrer zumeist sehr weitwinkligen und kleinen Objektive ist der Schärfebereich sehr groß, was der Bildgestaltung mithilfe von gezielt eingesetzter Unschärfe, auch Bokeh genannt, oft sehr enge Grenzen setzt. Das wirkt sich nicht nur bei Fotos wie etwa Porträtaufnahmen aus, sondern auch bei Videos.
"Cinematic Mode" erlaubt Bildgestaltung wie in KinofilmenSequenzen wie etwa Dialoge, bei denen lediglich eine Person im Vordergrund scharf abgebildet ist und der Rest des Bildes förmlich verschwimmt, waren daher bislang kaum zu realisieren. Der Wechsel des Schärfepunkts während des Drehens einer Szene, beispielsweise zu einer zweiten Person, ist ebenfalls in aller Regel unmöglich. Erschwerend kommt hinzu, dass der Autofokus einer solchen Bildkomposition fast immer im Wege steht. Apple hat sich beim iPhone 13 bekanntlich dieses Problems angenommen und stattet die neuen hauseigenen Smartphones mit dem "Cinematic Mode" aus. Die deutsche Bezeichnung hierfür lautet "Kinomodus".
A15-Chip und Neural Engine spielen eine zentrale RolleUm mit einem iPhone 13 die Aufnahme von Szenen zu ermöglichen, wie Apple sie im Rahmen des "California streaming"-Events präsentierte, musste das Unternehmen gleich mehrere Techniken kombinieren. In einem Interview mit
TechCrunch erläuterten jetzt Vizepräsident Kaiann Drace und Human Interface Designer Johnnie Manzari die Herangehensweise des iPhone-Konzerns und die Entstehung des "Cinematic Mode". Zentrale Komponente ist dabei erwartungsgemäß der sehr leistungsfähige A15-Chip mit der Neural Engine.
Prozessor koordiniert mehrere verschiedene TechnikenApples neuer Prozessor koordiniert dabei gleich mehrere Aufgaben, bei denen unter anderem die Beschleunigungssensoren des iPhone 13 und das überarbeitete stabilisierte Weitwinkelobjektiv eine wichtige Rolle spielen. An erster Stelle steht die permanente Erkennung und Verfolgung einzelner Bildelemente wie etwa Personen, dabei kommt Maschinelles Lernen zum Einsatz. Das System ist zudem in der Lage, einen vom Nutzer definierten Schärfepunkt zu halten und das gewünschte Motiv auch bei Schwenks entsprechend zu fixieren. Besonders anspruchsvoll ist die Fokusverlagerung, also der Wechsel von Vordergrund zu Hintergrund oder umgekehrt. Diese ist auch noch nachträglich bei der Bearbeitung eines Videos möglich. Hinzu kommen die Bildstabilisierung, ein gewisser Overscan des Bildes sowie das per Software erzeugte künstliche Bokeh.
A15-Chip wird sehr stark in Anspruch genommenDiese Techniken müssen naturgemäß während einer Aufnahme in Echtzeit eingesetzt werden. Das mache den "Cinematic Mode" äußerst anspruchsvoll, erklären Drace und Manzari. Die Entwicklung des Kinomodus stellte ihnen zufolge eine ungleich größere Herausforderung dar als die Erzeugung eines künstlichen Bokehs bei Fotos. Vor allem die kontinuierliche Verarbeitung der Autofokus-Daten für jedes einzelne Bild eines Videos nehme den A15-Chip sehr stark in Anspruch. Darüber hinaus sprach Apple im Verlauf der Entstehung des Kinomodus mit vielen Filmschaffenden und Kameraleuten, um das neue Feature so eng wie möglich dem in Kinofilmen genutzten Effekt anzunähern.