Suchen

Wie der Kortex Sinnesreize verarbeitet Sehen oder hören – was bekommt mehr Aufmerksamkeit im Gehirn?

| Autor/ Redakteur: Bettina Hennebach* / Christian Lüttmann

In der Großstadt buhlen blinkende Reklametafeln und hupende Autos um unsere Aufmerksamkeit. Unser Gehirn muss stets entscheiden, welche Reize gerade im Fokus stehen sollen. Wie diese Wahl im Wettstreit zwischen visuellen und auditiven Reizen ausfällt, haben Forscher nun im MRT-Experiment sichtbar gemacht.

Firmen zum Thema

Auditive Reize werden vorwiegend in der hier rot dargestellten Region der Hirnrinde verarbeitet.
Auditive Reize werden vorwiegend in der hier rot dargestellten Region der Hirnrinde verarbeitet.
(Bild: Rémi Gau)

Leipzig – Überqueren wir mit Blick aufs Smartphone eine Straße, lässt uns ein warnendes Hupen oder Motorengeräusch aufschrecken. Im Alltag können wir mühelos Informationen von verschiedenen Sinnen zusammenführen und unsere Aufmerksamkeit von einem Sinneseingang auf einen anderen verlagern – etwa vom Sehen auf das Hören. Doch wie entscheidet das Gehirn beim Zusammenspiel beider Sinne, auf welchen es die übergreifende Aufmerksamkeit lenkt? Und wie spiegeln sich diese Mechanismen in der Hirnstruktur wider?

Um das zu beantworten, haben Wissenschaftler des Max-Planck-Instituts für Kognitions- und Neurowissenschaften (MPI CBS) in Leipzig und des Computational Neuroscience and Cognitive Robotics Centre der University of Birmingham beobachtet, wie das Gehirn Sinnesreize verarbeitet. Im Gegensatz zu bisherigen Studien haben sie dabei nicht nur gemessen, an welchen Stellen die Großhirnrinde auf der Oberfläche aktiviert wird. Sie haben erstmals auch nach stärkeren Signalen in der Tiefe gesucht. Die Ergebnisse der Forscher deuten darauf hin, dass unser Gehirn den Informationsfluss über ausgeprägte Schaltkreise bis in die kleinsten Windungen dieser stark gefalteten Hirnstruktur leitet.

Bildergalerie

Bild und Ton im Magnetresonanztomographen

Während die Teilnehmer der Studie im Magnetresonanztomographen (MRT) lagen, zeigten die Wissenschaftler ihnen Symbole auf einem Bildschirm und spielten ihnen gleichzeitig Geräusche vor. Davor waren die Studienteilnehmer gebeten worden, ihre Aufmerksamkeit entweder auf den hörbaren oder den sichtbaren Teil des Experiments zu richten.

Die Neurophysiker analysierten im Anschluss, an welchen Stellen die Sinnesreize verarbeitet werden – und mussten dabei mit zwei Schwierigkeiten umgehen. „Die Hirnrinde ist nur zwei bis drei Millimeter dick. Wir benötigten also eine sehr hohe räumliche Auflösung von unter einem Millimeter während der Datenaufnahme“, erklärt Robert Trampel, der die Studie am MPI CBS mitbetreut hat. „Durch die dichte Faltung der Hirnrinde mussten wir sie außerdem virtuell glätten und in verschiedene Schichten zerlegen, um die Signale genau orten zu können.“

Bei Geräuschen schaltet der visuelle Hirnteil weitgehend ab

Die Auswertung brachte neue Einblicke, wie unser Gehirn verschiedene Reize verarbeitet: Hörten die Teilnehmer ein Geräusch, schaltete sich bei ihnen der visuelle Teil des Gehirns weitgehend ab – unabhängig davon, ob sie ihre Aufmerksamkeit auf den hörbaren oder den sichtbaren Teil des Experiments richteten. Achteten sie verstärkt auf das Geräusch, verringerte sich vor allem in den Regionen die Hirnaktivität, die dem Zentrum des Gesichtsfeldes entsprechen. Geräusche lenken unsere Aufmerksamkeit also stark von dem ab, was wir gerade betrachten.

In den Regionen, die fürs Hören zuständig sind, machten die Forscher zudem eine Neuentdeckung. Sie stellten fest, dass sich das Aktivierungsprofil entlang der verschiedenen Schichten der Großhirnrinde veränderte, wenn den Teilnehmern ausschließlich Geräusche präsentiert wurden. Anders hingegen, wenn die Studienteilnehmer nur „etwas fürs Auge“ wahrnahmen: Dann gab es keine Veränderungen. Gau resümiert: „Wenn wir also gleichzeitig verschiedene Sinneseindrücke verarbeiten müssen, werden auch verschiedene Verschaltungen von Neuronen aktiv – je nachdem, worauf wir unsere Aufmerksamkeit richten. Das konnten wir nun durch neuartige Experimente am Computer sichtbar machen.“

Originalpublikation: Remi Gau, Pierre-Louis Bazin, Robert Trampel, Robert Turner, Uta Noppeney: Resolving multisensory and attentional influences across cortical depth in sensory cortices, eLife 2020;9; DOI: 10.7554/eLife.46856

* B. Hennebach, Max-Planck-Institut für Kognitions- und Neurowissenschaften, 04103 Leipzig

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 46358175)