Der Code von Lauten entschlüsselt Wieso verhören wir uns?
Mit Wüstenrennmäusen sind Forscherinnen der Uni Oldenburg dem Geheimnis der Altersschwerhörigkeit auf der Spur. Im Experiment zeigten die Wissenschaftlerinnen, wie Laute im Ohr der Tiere in elektrische Impulse umgewandelt werden, die teilweise sehr ähnlich sind. Die Verwechslungsgefahr beginnt also schon im Ohr, und nicht erst bei der Interpretation im Gehirn.
Anbieter zum Thema

Oldenburg – Beim Shoppen in der Stadt, beim Spazieren im Park oder beim Essen im Restaurant – ständig sind wir einer vielfältigen Geräuschkulisse ausgesetzt. Dass wir uns trotzdem an all den Orten miteinander unterhalten können, verdanken wir der ausgeklügelten Funktion unserer Ohren. Wie das Verstehen von Worten tatsächlich funktioniert, haben die Neurowissenschaftlerinnen Dr. Amarins Heeringa und Prof. Dr. Christine Köppl von der Universität Oldenburg untersucht. Dazu spielten sie Mongolischen Wüstenrennmäusen unterschiedliche Laute vor und verfolgten, welche Informationen der Hörnerv als elektrische Reize ans Gehirn überträgt. Um die Fähigkeit zu prüfen, gewünschte Informationen von anderen Hintergrundgeräuschen abzugrenzen, spielten die Wissenschaftlerinnen den Tieren nicht nur verschiedene einsilbige Sprachproben vor, sondern gleichzeitig Nebengeräusche, die einem Stimmengewirr ähnelten.
Die Geräuschkulisse aus Sprachproben und Nebengeräuschen gelangt als Schallwelle, die das Trommelfell vibrieren lässt, zum Mittelohr. Über die Gehörknöchelchen übertragen sich die Vibrationen auf die Hörschnecke (Cochlea) und schließlich auf die Sinneszellen, die die Vibration in elektrische Impulse umwandeln, welche wiederum vom Hörnerv übertragen werden. Das Ohr übersetzt Geräusche also in einen Code aus elektrischen Impulsen, der im Gehirn wieder decodiert wird und schließlich zur bewussten Wahrnehmung des Gehörten wird.
Den Geräusche-Code entschlüsseln
Auf dem komplexen Code, der die gesamte Geräuschkulisse überträgt, exakt die Information zu finden, mit der die unterschiedlichen Vokallaute transportiert werden, stellte die Expertinnen vor eine besondere Herausforderung. Wie sie herausfanden, sorgen die unterschiedlichen Laute nämlich nicht für unterschiedliche Anzahlen von Nervenimpulsen, sondern viel mehr für unterschiedlich lange Pausen zwischen eben diesen Impulsen.
Diese Zeitmuster stellten die Neurowissenschaftlerinnen grafisch dar und erkannten Unterschiede, je nachdem, ob ein Laut mit einem „a“, einem „e“ oder einem „i“ vorgespielt wurde. Die Muster für die Laute „e“ und „i“, die auch ähnlich klingen und deshalb schnell verwechselt werden, ähnelten einander. Daraus schließen die Forscherinnen, dass das „Verhören“ bei diesen ähnlich klingenden Lauten bereits im Ohr seine Ursache hat und nicht erst beim Decodieren im Gehirn.
:quality(80)/images.vogel.de/vogelonline/bdb/1915200/1915249/original.jpg)
Von Hören und Zuhören
Hör zu – wie das Gehirn akustische Signale verarbeitet
Hörverständnis von Rennmäusen
Dass Mongolische Wüstenrennmäuse die verschiedenen Vokale in menschlicher Sprache überhaupt unterscheiden können, hatte zuvor eine Partnerstudie von Carolin Jüchter, Dr. Rainer Beutelmann und Prof. Dr. Georg Martin Klump, ebenfalls von der Universität Oldenburg, gezeigt. Das Team brachte den Tieren bei, ihre Warteposition auf einer Plattform zu verlassen, wenn sie in einer Umgebung mit Hintergrundgeräuschen wahrnahmen, dass sich eine immer wieder vorgespielte Sprechprobe plötzlich veränderte. In einem Vergleichstest mussten auch menschliche Probanden solche Lautveränderungen anzeigen.
Sowohl Menschen als auch Tieren fiel es dabei leichter, zwischen Vokalen als zwischen Konsonanten zu unterscheiden. Und es zeigte sich auch, dass die Tiere in der Praxis tatsächlich Probleme hatten, z. B. „e“ und „i“ zu unterscheiden, also Vokale, die in den Versuchen von Heeringa ähnliche Zeitmuster aufwiesen. Trotz kleinerer Unterschiede bei Mensch und Tier kommen die Wissenschaftler zu dem Ergebnis, dass die Mongolische Wüstenrennmaus geeignet ist, als Untersuchungsmodell für das menschliche Hören zu dienen.
Originalpublikationen:
Amarins N. Heeringa, Christine Köppl: Auditory Nerve Fiber Discrimination and Representation of Naturally-Spoken Vowels in Noise, eNeuro (2022); DOI: 10.1523/ENEURO.0474-21.2021
Carolin Jüchter, Rainer Beutelmann, Georg Martin Klump: Speech sound discrimination by Mongolian gerbils, Hearing Research (2022); DOI: 10.1016/j.heares.2022.108472
(ID:48281468)