Für Träger von Hörsystemen ist es bislang oft schwer, in lauter Umgebung einem Gespräch mit mehreren Beteiligten zu folgen. Eben das soll jetzt mit einem neuen System möglich sein. Dieses empfängt nicht nur das Gemisch aus Stimmen über den Audioeingang, sondern zusätzlich neurale Signale, also Gehirnwellen, des Nutzers.

Das System separiert automatisch einzelne Sprecher, erkennt anhand der Hirnsignale, auf welche Stimme der Nutzer seine Aufmerksamkeit richtet und verstärkt diese entsprechend – und das in unter zehn Sekunden. Das berichtet Dr. Nima Mesgarani, Elektrotechnikprofessor an der Columbia University, auf der Internetseite der Universität. Der Ansatz kombiniert dazu modernste Methoden der Aufmerksamkeitserkennung und der Sprachverarbeitung. Derzeit steht das Forscherteam jedoch noch vor vielen Herausforderungen, die Technik auf übliche Hörsysteme zu übertragen. Wann es soweit ist, bleibt vorerst abzuwarten.


In Deutschland wird ebenfalls versucht, mittels Gehirnströmen (ermittelt per Elektroenzephalogramm (EEG)) auf die gewünschte Aufmerksamkeitsausrichtung beim Hören zu schließen. Die Arbeitsgruppe von Professor Dr. Stefan Debener von der Universität Oldenburg hat sogar bereits einen funktionierenden Prototyp entwickelt, mit dem auch außerhalb des Labors EEG-Aufnahmen und Datenanalyse möglich sind, berichtet die Zeitschrift „Click“ in ihrer Sommer-Ausgabe. Sie nutzen dafür ein handelsübliches Smartphone und den drahtlos verbundenen eigens entwickelten Sensorstreifen cEEGrid, der um das Ohr herum positioniert wird. Nun soll geprüft werden, ob die Technik im Alltag und möglichst in Echtzeit zur Hörsystemsteuerung geeignet ist.

Impressum | Datenschutz | Kontakt | Abonnieren | Mediadaten

© 2018 hoerakustik.net