Test: So gut ist die Kamera des iPhone 11 Pro und das sind ihre Grenzen
Deep Fusion, Night Mode und weitere RechentricksIm iPhone 11 / Pro hat Apple vor allem an zwei Stellschrauben gedreht, um den visuellen Eindruck der Aufnahmen noch einmal deutlich zu verbessern. Und zwar bei Smart HDR (was vereinfacht ausgedrückt für eine gleichmäßigere Belichtung heller und dunkler Partien sorgt) und mit dem noch recht neuen „Semantic Mapping“. Hierbei versucht die Software einzelne Bildbereiche wie Himmel, Gesichter, Bäume etc. zu erkennen und lokal zu optimieren. Gesichter werden beispielsweise mit anderen Parametern behandelt, als Himmel oder Pflanzen, sodass am Ende ein harmonischer Gesamteindruck aller Bildpartien entsteht. Darüber hinaus reicht Apple mit iOS 13.2 später noch das sog. „
Deep Fusion“ nach.
Deep Fusion„Computational photography mad science“ nannte es Phil Schiller auf der Keynote. Die Neural Engine des A13-Prozessors nutzt für Deep Fusion
„fortschrittliches Machne Learning zur Pixel-für-Pixel-Verarbeitung von Fotos, um diese in den Bereichen Textur, Details und Rauschen in jedem Teil des Fotos zu verbessern“., so Schiller. Deep Fusion nutzt alle rückseitigen Kameras des iPhone (zwei beim 11er, drei beim 11 Pro), um Informationen zu sammeln. Wird ein Bild in diesem Modus aufgenommen, erfasst das iPhone vier kurze Aufnahmen noch bevor der Auslöser gedrückt wird, dann ein Bild mit längerer Belichtungszeit und anschließend vier weitere Bilder. Die Neural Engine analysiert die Aufnahmen und nutzt die Besten, um daraus ein Gesamtbild zusammenzusetzen. Dabei entsteht ein Foto mit 24 Megapixeln. Ich hatte zunächst angenommen, dass hierfür Pixelshift mit den integrierten optischen Stabilisatoren zum Einsatz kommt, so wie es mit einigen Systemkameras möglich ist, doch bislang habe ich dafür keine Bestätigung gefunden. Fest steht lediglich, dass Deep Fusion, wenn es denn verfügbar ist, neben der höheren Auflösung für einen größeren Dynamikumfang, mehr Details und weniger Rauschen sorgen soll.
Beispielbild mit "Deep Fusion" (Foto: Apple)Soweit bisher in den Entwicklerversionen zu erkennen, wird auch der Deep-Fusion-Modus automatisch nach Bedarf vom iPhone aktiviert. Anders als im Night Mode erhält der Nutzer aber keinen Hinweis darauf. Erst an der Auflösung des Bildes lässt sich dann erkennen, ob Deep Fusion aktiv war, oder nicht. Das ist etwas bedauerlich, wird die meisten Nutzer aber kaum stören.
Mit dem bereits ausgiebig
von den Kollegen behandelten Night Mode, dem verbesserten Portrait Modus und Smart HDR habe ich inzwischen weitere Erfahrungen gesammelt und die gewisse Grenzen bzw. Limitierungen entdeckt.
Bevor es mit den Beispielbildern losgeht, hier noch ein paar Hinweise bzw. Erkenntnisse, die mir aufgefallen sind:
1. Der Night Mode funktioniert derzeit nicht mit der Ultra-Weitwinkel-Kamera des iPhone 11 Pro
2. Fotos mit bestimmten Effekten wie Bokeh im Portrait-Modus oder High Key S/W werden im Fotostream (also zum Beispiel bei der Betrachtung auf dem iPad) nur ohne diese Effekte angezeigt. Auch mit den letzten iOS-Updates ist das noch der Fall. Bis sich das (hoffentlich bald) ändert, müssen Fotos mit solchen Effekten manuell übertragen werden, beispielsweise per AirDrop. Ob es über den iCloud-Sync funktioniert, konnte ich nicht überprüfen, da ich diesen Dienst von Apple zur Zeit nicht nutze.