Phone Xs: Tiefenschärfe demnächst direkt beim Fotografieren einstellen
Im Porträtmodus ermöglicht das iPhone Xs bzw. Xs Max, die Tiefenschärfe im Nachhinein zu korrigieren. Diese Funktion soll im kommenden iOS-Update auch in der Kamera-App integriert sein. In der Beta für iOS 12.1 kann man bereits sehen, wie Apple das Feature umsetzen will. Der iPhone-Produzent will das entsprechende Update noch in diesem Jahr herausbringen.
Tiefenschärfe ohne BlendeDie Neuerung klingt im ersten Moment komisch, denn die Blende der Objektive konnten Fotografen schon über 100 Jahren verändern, um den Hintergrund (un-)schärfer zu stellen. Doch hinter der neuen iOS-Funktion stecken ausgeklügelte Berechnungen, denn die Blendenöffnung der eingebauten Objektive bleibt unveränderbar. Apple verwendet vielmehr einen Algorithmus, der denselben Effekt simuliert. Dabei verwendet es Bildinformationen beider Linsen. Um die Berechnungen in Echtzeit ausführen zu können, ist entsprechende Prozessor-Power nötig, die die neuen Modelle jedoch offensichtlich zur Verfügung stellen können. Auch das XR-Modell soll die Funktion beherrschen, obwohl seine Rückseite nur ein Objektiv statt zweien trägt.
Auch Teile des Hemdes zeichnet Apples Algorithmus unscharf, bei anderen System ist es häufig nur der Hintergrund. Virtuelle Blende trennt nicht immer exaktDie "virtuelle Blende" Apples maskiert dabei nicht einfach den Hintergrund unscharf, sondern vergrößert auch die Unschärfe der Details im Vordergrund – ähnlich einer Aufnahme mit einem Objektiv mit offener Blende. Apples Software-Camera-Chef Sebastian Marinaeu-Mes
erklärt dazu in einem Interview: "Wir haben das Modell einer Linse in mathematische Formeln überführt und diese auf das Bild angewendet. Niemand sonst tut das, was sie tun. Die anderen zeichnen nur den Hintergrund unscharf." Auch diese komplexen Berechnungen, schaffe die (neue) iPhone-Hardware in Echtzeit, bestätigt er an anderer Stelle. Tester
berichten, die saubere Trennung von Vorder- und Hintergrund bereite der neuen Funktion zuweilen Schwierigkeiten.
Apple beschriftet die Tiefen(un)schärfe-Skala mit Blendenwerten. Quelle: medium.com Hardware und Software Hand-in-HandIn den Xs-Modellen verbaut Apple neben der Foto-Hardware des Vorgängers einen neuen Bildsensor, auch die Linse sowie den Bildsignalprozessor findet man in keinem weiteren Gerät. Letzterer bildet mit anderen Komponenten zusammen den Chipsatz des "A12 Bionic", den Apple zusammen mit den neuen iPhones vorstellte. Entscheidend sei die Zusammenarbeit zwischen den Abteilungen,
betonen die drei "Väter" des Kamerasystems Sebastian Marinaeu-Mes, Kamera-Hardwarechef Graham Townsend und Marketingleiter Phil Schiller bei einem Interview über die Entwicklung der Lösung. Townsend: "Wir haben das Privileg, alles gestalten zu können, vom Photon, das zuerst in das Objektiv eintritt, bis hin zum Format der aufgenommenen Datei." Die Hard- und Software-Teams von Apple treffen sich regelmäßig intern, um die Imaging-Funktionen zu definieren, die sie durch neue Hardware (etwa den A12 Bionic, dessen Entwicklung drei Jahre gedauert haben soll) entwickeln können.