Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

AirPods Pro: Details und Hintergründe zum neuen Feature “Adaptive Audio” – was Apple ersann und verwarf

Im Zuge der herbstlichen Softwareaktualisierungen gelangte gleichermaßen eine neue Firmware auf die zweite Generation der AirPods Pro-Modelle. Eine damit verbundene, neue Funktion nennt sich Adaptive Audio und verknüpft den Transparenzmodus mit der Geräuschunterdrückung. Je nach Umgebung, in welcher sich der Nutzer befindet, gleichen die AirPods diese beiden Modi gegeneinander aus. In einer Entwicklungsphase erprobte man in Cupertino hierzu ebenfalls eine standortabhängige „Adaptive Audio“-Steuerung per GPS, verwarf diese Idee allerdings – mit triftigem Grund. In einem Interview mit TechCrunch kamen die für die AirPods zuständigen Apple-Manager Ron Huang und Eric Treski ins Gespräch.


Wie funktioniert das Feature?
Um Missverständnisse mit der Namensgebung aus dem Weg zu räumen, erläuterte Huang, Apple Vice President of Sensing and Connectivity, die Unterschiede zwischen „Adaptive Transparency“ und „Adaptive Audio“. Erstere, bereits mit der Vorgängerversion erschienene Funktion, dient der Überwachung und Eliminierung externer Störgeräusche – auch bei aktiviertem Transparenzmodus. Das neu eingeführte „Adaptive Audio“ hingegen arbeitet sehr viel methodischer und möchte erkennen, worauf der Fokus beim Hören gesetzt ist. Die intelligente Anpassung vermag zu erkennen, ob man seine Aufmerksamkeit auf einen Song oder Podcast verlagert, oder die umgebenden Geräusche mehr Priorität verdienen.

Den Standort auswerten
Bei der Entwicklung der Funktion verfolgte man mehrere Ansätze. Einer davon war die Auslotung des „Adaptive Audio“-Pegels mithilfe der Standortdaten, wobei die GPS-Daten vom iPhone geliefert wurden. Befinde sich der Nutzer etwa auf einer Straße, würden die AirPods automatisch in den Transparenzmodus wechseln, zu Hause hingegen gelten wiederum andere Bedingungen. Diese Vorgehensweise hatte sich in der Praxis allerdings schlichtweg nicht bewährt. Man merkte schnell, dass es in den eigenen vier Wänden nicht immer ruhig zugehe und auch auf der Straße nicht zu jeder Zeit lärmender Verkehr herrsche. In Cupertino entschied man sich daher stattdessen für eine Echtzeitüberwachung und legte mehr Verantwortung in die Hände der intelligenten In-Ears.

Weitere, interessante Einblicke
Im Gespräch kamen noch andere Informationen zur Entwicklung der AirPods ans Licht. Die personalisierte Lautstärke etwa verfeinerte das kalifornische Unternehmen durch die Auswertung „stundenlanger, verschiedener Daten“. Hierzu analysieren die AirPods die Vorlieben ihrer Nutzer und gehen insbesondere auf die unterschiedlichen Inhalte in verschiedenen Umgebungen ein. Sie seien im Besitz eines Gedächtnisses und würden sich merken, wo sie sich befinden und wie laut es dort ist. Auch die Gesprächserkennung bedient sich verschiedener, intelligenter Methoden. So wartet sie nicht nur auf eine dominante Stimme, um sie dem Vordergrund zuzuordnen, sondern nutzt die Beschleunigungssensoren zur Detektierung von Kieferbewegungen. Weitere Einblicke gewährt das umfangreiche Interview mit TechCrunch.

Kommentare

Tom Macintosh26.09.23 21:12
funktioniert sehr gut… heute imm flieger ausprobiert - triebwerke und lüftung ausgeblendet und der Rest verständlich …

also gute umsetzung- danke
+1
Kujkoooo27.09.23 07:42
Welch Eloquenz!
Kann jemand mal verraten, was „was Apple ersann und verwarf“ für Menschen ohne Deutschleistungskurs bedeutet?
Danke.
-10
marcel15127.09.23 08:09
"Ersinnen" würde ich in diesem Kontext am ehesten mit "ausdenken" in Verbindung bringen. "Verwerfen" müsste eigentlich klar sein, oder?
PS: Ich hatte keinen Deutsch Leistungskurs.
+5

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.