Durchbruch dank eines Pink Floyd-Hits: Forschende fanden in einem Experiment heraus, dass Lieder über die Hirnaktivität des Menschen erfasst werden können: Rhythmus, Melodie, Tonhöhe und zum Teil sogar Text. Diese Erkenntnisse können weiterhelfen, Hilfsmittel für Menschen zu schaffen, die nicht mehr sprechen können.
Aus der Hirnaktivität ablesen, welchen Song ein Mensch hört: Das ist bei einem Experiment in den USA gelungen. Rockmusik könne aus aufgezeichneter Gehirnaktivität rekonstruiert werden, berichtet das Team im Fachjournal "PLOS Biology". Das mag zunächst einfach nur amüsant klingen - die Forschenden erhoffen sich aber entscheidende Fortschritte bei Hilfsmitteln für Menschen, die nicht mehr sprechen können.
"Another Brick in the Wall, Part 1" ließ sich rekonstruieren
Die Wissenschaftler und Wissenschaftlerinnen um Ludovic Bellier von der University of California in Berkeley hatten den Song "Another Brick in the Wall, Part 1" der britischen Rockband Pink Floyd von 1979 genutzt. Mit Elektroden, die direkt am Gehirn angebracht wurden, zeichneten sie die neuronale Aktivität von 29 Personen auf, die einen dreiminütigen Ausschnitt des Klassikers hörten. Es handelte sich um Patienten, die sich in der Vorbereitungsphase für einen epilepsiechirurgischen Eingriff befanden. Vor solchen Eingriffen wird den Patienten ein Netz von Elektroden direkt auf das Gehirn gesetzt, um herauszufinden, von wo die Krampfanfälle ausgehen und wo operiert werden muss.
Aus den aufgezeichneten Aktivitätsdaten verschiedener Hirnregionen wurde mithilfe spezieller Kodierungsmodelle der ursprüngliche Song rekonstruiert, von dem so - mehr oder weniger - erkennbare Versionen entstanden. Der Rhythmus sei intakt, der Text zwar verworren, aber entzifferbar, so die Forschenden.
Beide Gehirnhälften für Musikwahrnehmung zuständig
Frühere Arbeiten hätten bereits gezeigt, dass Computermodelle zur Rekonstruktion von Sprache aus solchen Aktivitätsmustern verwendet werden können, hieß es zur Studie. Ein Modell für Musik, das zusätzliche Elemente wie Tonhöhe, Melodie und Rhythmus sowie verschiedene klangverarbeitende Hirnregionen umfasst, habe es bisher nicht gegeben.
Zu den Erkenntnissen gehörte auch, dass an der Musikwahrnehmung beide Hemisphären des Gehirns beteiligt sind, die rechte aber merklich stärker. Das Team machte bei seinen Untersuchungen zudem eine Hirnregion im Schläfenlappen ausfindig, die für die Rhythmuswahrnehmung zuständig ist, in diesem Fall des Gitarrenrhythmus.
Was die Ergebnisse zukünftig bringen
Ihre Ergebnisse könnten künftig für bessere Gehirn-Maschine-Schnittstellen genutzt werden, hoffen die Forschenden. Die heute verwendeten Schnittstellen für Menschen, die nicht sprechen können, seien zwar dazu in der Lage, Wörter zu entschlüsseln - die von ihnen reproduzierten Sätze klängen aber stark nach Roboter. Es fehle an Sprachmelodie, Emotionen, den vielen Ausdruck bringenden Details von Sprache.
Nötig seien dafür allerdings unter anderem empfindlichere Elektroden, die ohne Schädelöffnung einfach auf der Kopfhaut befestigt werden könnten. Derzeit lasse sich mit einem EEG der Kopfhaut die Hirnaktivität messen, um einen einzelnen Buchstaben aus einem Strom von Buchstaben zu erkennen. Dieses Erkennen dauere aber mindestens 20 Sekunden, was die Kommunikation mühsam und schwierig mache.
"Die nicht-invasiven Techniken sind heute einfach nicht genau genug", sagt Bellier. "Wir hoffen für die Patienten, dass wir in Zukunft mithilfe von Elektroden, die außen am Schädel angebracht werden, die Aktivität in tieferen Hirnregionen mit einer guten Signalqualität messen können. Aber davon sind wir noch weit entfernt." (dpa/mak)
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.