English China

Konzepte und Wahrnehmung im Gehirn Wenn das Telefon im Gehirn klingelt, obwohl es gar nicht da ist

Autor / Redakteur: Verena Müller* / Christian Lüttmann

Wenn das Telefon klingelt und man den Hörer abnimmt, löst dies Aktivität in verschiedenen Arealen für Hören und Handeln aus. Doch schon das Wort „Telefon“ reicht dazu aus. Wie unser Gehirn in diesem Fall auf die bekannten Konzepte zugreift, haben nun Forscher*innen vom MPI für Kognitions- und Neurowissenschaften herausgefunden.

Firmen zum Thema

Was passiert im Gehirn, wenn man nur an ein bestimmtes Wort wie „Telefon“ denkt? Dem sind Fraunhofer Forscher*innern nachgegangen.
Was passiert im Gehirn, wenn man nur an ein bestimmtes Wort wie „Telefon“ denkt? Dem sind Fraunhofer Forscher*innern nachgegangen.
(Bild: gemeinfrei, Fakurian Arts, Alexander Andrews / Unsplash)

Leipzig – Um die Welt zu verstehen, ordnen wir die einzelnen Objekte, Menschen und Ereignisse in verschiedene Kategorien oder Konzepte. Konzepte wie „Telefon“ bestehen vor allem aus sichtbaren Merkmalen, also Form und Farbe, sowie Geräuschen, etwa Klingeln. Dazu kommen Handlungen, also wie wir ein Telefon benutzen.

Das Konzept „Telefon“ entsteht im Gehirn aber nicht nur, wenn wir ein Telefon vor uns haben. Es zeigt sich auch, wenn lediglich der Begriff fällt. Lesen wir also das Wort „Telefon“, ruft unser Gehirn ebenfalls das dazugehörige Konzept ab. Dabei werden im Gehirn dieselben Regionen aktiv, die anspringen, würden wir ein Telefon tatsächlich sehen, hören oder benutzen. Das Gehirn scheint also die Merkmale eines Telefons zu simulieren, wenn allein seine Bezeichnung fällt.

Was das Telefon im Kopf auslöst

Bislang war jedoch unklar, ob immer das gesamte Konzept abgerufen wird oder lediglich einzelne Merkmale wie Geräusche oder Handlungen – und ob entsprechend nur die Hirnareale aktiv werden, die das jeweilige Merkmal verarbeiten. Denken wir also bei einem Telefon immer an all seine Merkmale oder nur an den Teil, der gerade benötigt wird? Fragen wir bei einem klingelnden Telefon unser Geräuschwissen ab, bei der Benutzung aber nur das Handlungswissen?

Forscher*innen des Max-Planck-Instituts für Kognitions- und Neurowissenschaften in Leipzig haben jetzt in einer großangelegten Studie herausgefunden: Es kommt auf die Situation an. Sollten die Studienteilnehmer*innen etwa bei dem Wort „Telefon“ an die damit verknüpften Geräusche denken, wurden die entsprechenden auditorischen Areale in der Großhirnrinde aktiv, die auch beim eigentlichen Hören anspringen. Ging es darum, an die Benutzung eines Telefons zu denken, traten die somatomotorischen Areale in Aktion, die auch die tatsächlich durchgeführte Handlung verarbeiten würden. Weil jedes Areal nur für einen Sinneseindruck zuständig ist, werden sie auch als modalitätsspezifisch bezeichnet.

Handeln und Hören gleichzeitig verarbeiten

Zusätzlich zu diesen spezifischen Arealen zeigte sich, dass es Areale gibt, die beides gemeinsam verarbeiten: Geräusche und Handlungen. Eines dieser multimodalen Areale ist der linke Lobus parietalis inferior (IPL). Er wurde aktiv, wenn beide Merkmale abgefragt wurden.

Denkt man beim Wort „Telefon“ allein an das Klingeln oder allein an dessen Benutzung werden lediglich die beiden Hirnareale aktiv, die auch das eigentliche Hören (gelb) und die eigentliche Handlung verarbeiten würden (blau). Rufen wir uns dagegen das Gesamtkonzept „Telefon“ ab, treten neben diesen beiden sogenannten modalitätsspezifischen Arealen auch multimodale (grün) und amodale (nicht im Bild) Bereiche in Aktion, die auch für abstraktere Informationen zuständig sind, die nicht allein über Sinneseindrücke entstehen.
Denkt man beim Wort „Telefon“ allein an das Klingeln oder allein an dessen Benutzung werden lediglich die beiden Hirnareale aktiv, die auch das eigentliche Hören (gelb) und die eigentliche Handlung verarbeiten würden (blau). Rufen wir uns dagegen das Gesamtkonzept „Telefon“ ab, treten neben diesen beiden sogenannten modalitätsspezifischen Arealen auch multimodale (grün) und amodale (nicht im Bild) Bereiche in Aktion, die auch für abstraktere Informationen zuständig sind, die nicht allein über Sinneseindrücke entstehen.
(Bild: MPI CBS)

Und nicht nur das: Die Forscher*innen fanden auch heraus, dass es neben Merkmalen, die auf Sinneseindrücken und Handlungen basieren, noch andere Kriterien geben muss, anhand derer wir Begriffe verstehen und einsortieren. Das zeigte sich, als die Teilnehmer*innen lediglich unterscheiden sollten, ob es sich um echte oder erfundene Wörter handelt. Hier sprang eine Region an, die weder für Handlungen noch für Geräusche zuständig ist: der anteriore Temporallappen (ATL). Der ATL scheint daher Konzepte abstrakt oder „amodal“ zu verarbeiten, völlig losgelöst von Sinneseindrücken.

Drei Ebenen der Wahrnehmung

Aus diesen Erkenntnissen haben die Wissenschaftler*innen schließlich ein hierarchisches Modell entwickelt, das widerspiegeln soll, wie konzeptuelles Wissen im menschlichen Gehirn repräsentiert ist. Demnach werden Informationen von einer Hierarchieebene an die nächste weitergegeben und gleichzeitig bei jedem Schritt abstrakter. Auf der untersten Ebene liegen also die modalitätsspezifischen Areale, die einzelne Sinneseindrücke oder Handlungen verarbeiten. Diese übertragen ihre Informationen an die multimodalen Regionen wie den IPL, die mehrere verknüpfte Wahrnehmungen gleichzeitig verarbeiten, etwa Geräusche und Handlungen. Auf der höchsten Ebene arbeitet der amodale ATL, der von Sinneseindrücken losgelöste Merkmale repräsentiert. Je abstrakter dabei ein Merkmal, desto höher das Level, auf dem es verarbeitet wird und desto weiter ist es von eigentlichen Sinneseindrücken entfernt.

„Wir zeigen also, dass sich unsere Konzepte von Dingen, Menschen und Ereignissen zum einen aus den damit assoziierten Sinneseindrücken und Handlungen zusammensetzen und zum anderen aus abstrakten symbolartigen Merkmalen“, erklärt Philipp Kuhnke, Erstautor der zugrundeliegenden Studie. Welche Merkmale aktiviert werden, hänge dabei stark von der jeweiligen Situation oder Aufgabe ab.

Worte, die die Sinne aktivieren

In einer Folgestudie fanden die Forscher*innen zudem heraus, dass modalitätsspezifische und multimodale Regionen situationsabhängig zusammenarbeiten, wenn wir konzeptuelle Merkmale abrufen. Untersucht haben die Wissenschaftler*innen diese Zusammenhänge mithilfe verschiedener Wort-Aufgaben, die die Teilnehmer*innen lösten, während sie im funktionellen Magnetresonanztomographen (fMRT) lagen. Hier sollten sie entscheiden, ob sie das genannte Objekt stark mit Geräuschen oder Handlungen verbinden. Dazu sahen sie Wörter aus vier Kategorien:

  • Objekte, die man mit Geräuschen und Handlungen assoziiert, etwa „Gitarre“
  • Objekte, die man mit Geräuschen, aber nicht mit Handlungen assoziiert, etwa „Propeller“
  • Objekte, die man nicht mit Geräuschen, aber mit Handlungen assoziiert, etwa „Serviette“
  • Objekte, die man weder mit Geräuschen noch mit Handlungen verbindet, etwa „Satellit“

Mit diesem Experiment fanden die Forscher*innen heraus: Die multimodale Hirnregion IPL interagierte mit auditorischen Arealen beim Abrufen von Geräuschen, und mit somatomotorischen Arealen beim Abrufen von Handlungen. Dabei zeigte sich, dass die Interaktion zwischen modalitätsspezifischen und multimodalen Regionen das Verhalten der Studienteilnehmer*innen bestimmt: Je stärker diese Regionen zusammenarbeiteten, desto stärker assoziierten die Teilnehmer*innen die Wörter mit Handlungen und Geräuschen.

Originalpublikationen:

Philipp Kuhnke, Markus Kiefer, Gesa Hartwigsen: Task-Dependent Functional and Effective Connectivity during Conceptual Processing, Cerebral Cortex (2021); DOI:10.1093/cercor/bhab026

Philipp Kuhnke, Markus Kiefer, Gesa Hartwigsen: Task-Dependent Recruitment of Modality-Specific and Multimodal Regions during Conceptual Processing, Cerebral Cortex, Volume 30, Issue 7, July 2020, Pages 3938–3959; DOI: 10.1093/cercor/bhaa010

* V. Müller, Max Planck Institut f. Kognitions- und Neurowissenschaften, 04103 Leipzig

(ID:47385744)