Erster Test: Schärfentiefe-Effekt mit iPhone 7 Plus in iOS 10.1
Mit iOS 10.1, die erste Testversion ist seit dieser Woche verfügbar, erhält das iPhone 7 Plus eine wichtige neue Kamera-Funktion. So lassen sich ausgeprägte Tiefenunschärfe-Effekte erzielen, bei denen das gewünschte Objekt das besonders hervorgehoben ist. Wir haben einen Blick die Tiefeneffekte geworfen, einige Testfotos aufgenommen und uns angesehen, wo momentan noch die Schwächen im Detail lauern.
Da das iPhone 7 Plus aufgrund seiner Abmessungen nicht über ein großes Linsensystem verfügen kann, ist die Tiefenschärfe sehr groß - Objekte im Vordergrund wie auch im Hintergrund erscheinen scharf. Um nun einen Tiefenunschärfe-Effekt (Bokeh) zu erzielen, muss Apple hier auf eine Kombination aus einer Software-Lösung und dem Zwei-Kamera-System setzen. Hierbei versucht Apple, aus den zwei Bildern die Objekte im Vordergrund (welche scharf erscheinen sollen) vom Hintergrund (welcher unscharf dargestellt werden soll) zu trennen.
Für gutartige Fälle produziert Apples Lösung akzeptable Ergebnisse - wenn auch an Kanten deutlich zu erkennen ist, dass es sich dabei um eine Nachbearbeitung durch einen Algorithmus handelt. Bei dem Objekt im Vordergrund gehen leider Details an den Kanten verloren. Achten Sie dazu unter anderem auf die rechte Seite des Blumentopfs sowie die Blattspitze links oben
In komplizierten Fällen mit dünnen Objekten scheitert Apples Algorithmus aber (momentan) vollständig: Es ist dabei sehr schwer, dünne Objekte vom Hintergrund zu trennen - dies führt dazu, dass in Teilen des Bildes weichgezeichnet wird, obwohl sich ein Objekt im Vordergrund befindet. An anderen Stellen wird gar nicht weichgezeichnet, obwohl hauptsächlich der Hintergrund zu sehen ist. Achten Sie dazu auf die Gardinenschnur links neben dem Fensterrahmen:
Die Ergebnisse sind mit Vorsicht zu genießen - es handelt sich um die allererste Testversion des Algorithmus. All zu große Hoffnungen sollte man sich aber nicht machen, der Software-Algorithmus kann ein echtes großes Linsensystem nicht unter allen Umständen simulieren. Bei Porträts arbeitet die Funktion zwar zuverlässiger, aber immer noch fernab von perfekt. Nachträgliches Verändern der Tiefenunschärfe sieht Apples System entgegen einiger Bericht übrigens nicht vor. Zwar wird nicht nur das nachträglich modifizierte, sondern auch das Original-Bild gespeichert, beliebiges späteres Auswählen des Schärfebereichs ist aber nicht möglich.