AirPods Pro: Details und Hintergründe zum neuen Feature “Adaptive Audio” – was Apple ersann und verwarf
Im Zuge der herbstlichen Softwareaktualisierungen gelangte gleichermaßen eine neue Firmware auf die zweite Generation der AirPods Pro-Modelle. Eine damit verbundene, neue Funktion nennt sich Adaptive Audio und verknüpft den Transparenzmodus mit der Geräuschunterdrückung. Je nach Umgebung, in welcher sich der Nutzer befindet, gleichen die AirPods diese beiden Modi gegeneinander aus. In einer Entwicklungsphase erprobte man in Cupertino hierzu ebenfalls eine standortabhängige „Adaptive Audio“-Steuerung per GPS, verwarf diese Idee allerdings – mit triftigem Grund. In einem Interview mit TechCrunch kamen die für die AirPods zuständigen Apple-Manager Ron Huang und Eric Treski ins Gespräch.
Wie funktioniert das Feature?Um Missverständnisse mit der Namensgebung aus dem Weg zu räumen, erläuterte Huang, Apple Vice President of Sensing and Connectivity, die Unterschiede zwischen „Adaptive Transparency“ und „Adaptive Audio“. Erstere, bereits mit der Vorgängerversion erschienene Funktion, dient der Überwachung und Eliminierung externer Störgeräusche – auch bei aktiviertem Transparenzmodus. Das neu eingeführte „Adaptive Audio“ hingegen arbeitet sehr viel methodischer und möchte erkennen, worauf der Fokus beim Hören gesetzt ist. Die intelligente Anpassung vermag zu erkennen, ob man seine Aufmerksamkeit auf einen Song oder Podcast verlagert, oder die umgebenden Geräusche mehr Priorität verdienen.
Den Standort auswertenBei der Entwicklung der Funktion verfolgte man mehrere Ansätze. Einer davon war die Auslotung des „Adaptive Audio“-Pegels mithilfe der Standortdaten, wobei die GPS-Daten vom iPhone geliefert wurden. Befinde sich der Nutzer etwa auf einer Straße, würden die AirPods automatisch in den Transparenzmodus wechseln, zu Hause hingegen gelten wiederum andere Bedingungen. Diese Vorgehensweise hatte sich in der Praxis allerdings schlichtweg nicht bewährt. Man merkte schnell, dass es in den eigenen vier Wänden nicht immer ruhig zugehe und auch auf der Straße nicht zu jeder Zeit lärmender Verkehr herrsche. In Cupertino entschied man sich daher stattdessen für eine Echtzeitüberwachung und legte mehr Verantwortung in die Hände der intelligenten In-Ears.
Weitere, interessante EinblickeIm Gespräch kamen noch andere Informationen zur Entwicklung der AirPods ans Licht. Die personalisierte Lautstärke etwa verfeinerte das kalifornische Unternehmen durch die Auswertung „stundenlanger, verschiedener Daten“. Hierzu analysieren die AirPods die Vorlieben ihrer Nutzer und gehen insbesondere auf die unterschiedlichen Inhalte in verschiedenen Umgebungen ein. Sie seien im Besitz eines Gedächtnisses und würden sich merken, wo sie sich befinden und wie laut es dort ist. Auch die Gesprächserkennung bedient sich verschiedener, intelligenter Methoden. So wartet sie nicht nur auf eine dominante Stimme, um sie dem Vordergrund zuzuordnen, sondern nutzt die Beschleunigungssensoren zur Detektierung von Kieferbewegungen. Weitere Einblicke gewährt das umfangreiche
Interview mit TechCrunch.