Ein musikalischer Coitus Interruptus wegen der Airpods Pro

Die «Per­so­na­li­sierte Laut­stärke» und die «Kon­ver­sa­tions­erken­nung» der Air­pods Pro von Apple in der kri­ti­schen Wür­di­gung: Welche Funktion etwas taugt – und welche ver­bes­se­rungs­wür­dig ist.

Das iPhone stellt in Verbindung mit den Airpods Pro die beiden Features Personalisierte Lautstärke und Konversationserkennung zur Verfügung. Es gibt diese beiden Optionen seit iOS 17. Ich habe sie beide ausführlich getestet. Als Resultat habe ich die eine nun dauerhaft eingeschaltet und die andere wieder deaktiviert. Welche mein Herz erobern konnte, ist – natürlich – die Pointe am Ende des Blogposts.

Um die Airpods zu konfigurieren, müssen sie gekoppelt und verbunden sein:

Die eine Option ist nichts für Sänger und Selbstgespräche-Führerinnen.

Dann tauchen sie in den Einstellungen am Anfang der Liste direkt nach dem Apple-ID-Kästchen auf. Aktiviert und deaktiviert werden sie im Abschnitt Audio.

Personalisierte Lautstärke: Der Name dieses Features ist falsch; passender wäre «adaptive Lautstärke». Die Funktion hat nichts mit der Trägerin oder dem Träger zu tun, sondern mit der Umgebung und der dort herrschenden Klangkulisse. Wenn die lauter wird, geht die Lautstärke automatisch hoch, damit der Podcast oder das Hörbuch dennoch zu verstehen ist. Wird es wieder leiser, dreht sich das Volume selbst zurück.

Konversationserkennung: Die Konversationserkennung dreht zuerst die Lautstärke zurück und stoppt die Audio-Wiedergabe dann ganz, wenn die Trägerin bzw. der Träger der Airpods zu sprechen beginnt oder Laute von sich gibt. Das soll uns ermöglichen, uns auf die Konversation mit einer Person im Raum zu konzentrieren.

Die automatische Anpassung der Lautstärke funktioniert meiner Erfahrung nach recht gut. Gehen wir beim Spazieren an einer Baustelle oder an einem hochtourig operierenden Laubbläser vorbei, wird das ausgeglichen. Auch zu Hause kann das praktisch sein, falls der Saugroboter vorbeifährt oder einer der Mitbewohner einer dezibelstarken Tätigkeit nachgeht.

Der Effekt kann irritierend auf Leute wirken, die professionell mit Audio zu tun haben. Sie fragen sich dann vielleicht, warum der aktuelle Titel so uneinheitlich gemastert ist. Aber die Normalbevölkerung dürfte sich daran nicht stören.

Die Konversationserkennung habe ich wieder abgeschaltet. Der Grund liegt darin, dass ich dazu neige, vor mich hin zu brabbeln. Es kann sich dabei um eine Reaktion auf das Gehörte («Was für en huere Seich!») oder um ein klassisches Selbstgespräch handeln, das nicht direkt mit der Wiedergabe im Zusammenhang steht.

Wie oft man Selbstgespräche führt …

Während ich diese Funktion getestet habe, ist es höchstens ein- oder zweimal vorgekommen, dass ich tatsächlich mit jemandem sprechen wollte. Demgegenüber musste ich feststellen, dass ich viel häufiger als gedacht (und erhofft) vokalisiere. Was nebenbei auch erklärt, weswegen mich Leute auf der Strasse manchmal fragend oder belustigt ansehen – ich glaube, auch meine Mimik neigt mitunter dazu, auf Hörbücher oder Podcasts zu reagieren.

Sieht aus wie ein kleines Alien, das uns ins Ohr flüstern will.

Mit anderen Worten: Die Konversationserkennung ist kontraproduktiv und sie macht mich auf unangenehme Weise auf meine Marotten aufmerksam. Ich vermute, dass es auch anderen Leuten so geht. Bei der Musik mitzusingen, ist nichts Ungewöhnliches. Wenn dann aber just in dem Moment die Musik ausgeht, wenn wir mit voller Inbrunst in den Refrain einstimmen, dann ist das ein musikalischer Coitus interruptus.

Fazit: Lieber abschalten! Was vielleicht praktisch wäre, wenn anstelle eines Wiedergabe-Stopps sich auf diese Weise der Transparenzmodus einschalten liesse. Es ist und bleibt aber höflicher, zumindest einen Stöpsel aus dem Ohr zu nehmen, um mit jemandem zu sprechen …

Kommentar verfassen