Apple gewährt Einblick in Audio- und Video-Testlabor für iPhones
Auf der Keynote am 9. September 2024 nahm sich Apple einige Minuten Zeit, um neue KI-gestützte Audio-Mix-Funktionen vorzustellen. Sie wurden exklusiv für die Pro-Modelle des iPhone 16 entwickelt und erlauben ein nachträgliches Bearbeiten der Tonspur eines Videos. Vier Mikrofone zeichnen dafür Audiosignale auf. Apple lud im Dezember CNET-Redakteur Patrick Holland ein, um einen
Blick hinter die Kulissen zu gewähren.
Wichtigstes Werkzeug für die Entstehung des Audio-Mix-Features war dabei ein schalltoter Raum, in dem ein iPhone platziert ist. Wände und Tür sind mit Schaumstoffkeilen ausgekleidet, welche jeglichen Schall schlucken. Anstatt eines Fußbodens begeht man den Raum über ein entkoppeltes Drahtgitter; darunter befinden sich ebenfalls Schaumstoffkeile. So wird das Entstehen störender Echos verhindert. In die Konstruktion spannt Apple die iPhone-Prototypen und beschallt sie kontrolliert und wiederholt, während das Smartphone schrittweise rotiert. Auf diese Weise entstehen aussagekräftige Sound-Profile aller vier Mikrofone, welche wiederum beim Erstellen der Audio-Mix-Modi zur Anwendung kommen.
Zwei Mikrofone befinden sich am unteren Ende des iPhone 16 Pro, eines am oberen. Ein weiteres ist mittig bei den Kameras untergebracht. (Quelle:
Apple-Keynote)
Mikrofone aus EigenentwicklungApple verspricht, dass Anwender nach einer Videoaufnahme entscheiden können, wie viel Umgebungsgeräusche im resultierenden Video landen. Laut Ruchir Dave, Senior Director of Acoustics Engineering, mussten sie für diesen Zweck eine neuartige Mikrofonkomponente entwickeln.
Anderer Ansatz bei VideoUm die Bewegtbildkomponente zu optimieren, wählte Apple einen anderen Ansatz: Anstatt trockener Messwerte setze das iPhone-Team auf subjektive Eindrücke und den direkten Austausch zwischen Experten. Dafür gibt es ein eigenes Test-Kino mit großer Leinwand, Dolby-Atmos-Anlage und vielen Sitzgelegenheiten für gemeinsames Betrachten. Die Videoprojektion hilft festzulegen, wie ein iPhone Film-Clips in unterschiedlichen Szenarien wiedergibt – etwa unter direkter Sonneneinstrahlung, in kaltem Bürolicht oder im gedimmten Wohnzimmer. Umgebungssensoren registrieren aktuelle Lichtbedingungen und passen die Wiedergabe auf dem iPhone-Bildschirm an.