Hörbare Emotionen: Musik aus Gefühlen komponiert

Fabian Peters

Australische Forscher komponieren Symphonie der Emotionen

10.09.2012

Australischen Wissenschaftlern ist es gelungen, die Signale des Gehirns bei bestimmten Emotionen zu „belauschen“ und per Computer in Töne umzuwandeln. Am Ende könne durch die verschiedenen Emotionen eine regelrechte Symphonie der Gefühle erzeugt werden, berichtet die Universität von Western Sydney, an der die Experimente durchgeführt wurden.

Mehr zum Thema:

Die Wissenschaftler um den Neurophysiologen Vaughan Macefield von der University of Western Sydney (UWS) haben im Rahmen ihrer Untersuchungen die bei bestimmten Emotionen einsetzenden Nervenimpulse des Schauspielers Ben Schultz in Töne umgewandelt. Patienten, die Schwierigkeiten beim Äußern ihrer Gefühle haben wie beispielsweise Autisten, könnten durch die Übersetzung ihrer Emotionen in Musik auf Basis des neuartigen Verfahrens profitieren, so die Hoffnung der australischen Forscher.

Erzeugter Impuls aus den Nerven
Mit Hilfe einer Nadel im Bein des 27-Jährigen Schauspielers konnten die australischen Forscher die elektrischen Impulse belauschen, die das Gehirn von Ben Schultz beim Betrachten einer Bilderserie mit Fotos von Gewalt, Verstümmelung aber auch Erotik aussendete. Reagierte Schultz mit Emotionen, war dies auf den Monitoren, mit denen der Proband mittels unzähliger Kabel verbunden war, ablesbar und ein Mikrofon zeichnete den vom Nerv erzeugten Ton auf. Die ebenfalls an dem Experiment beteiligte kanadische Sängerin und Audiokünstlerin Erin Gee lies die Töne aus kleinen Boxen in den Versuchsräumen erklingen und sammelte das Material, um aus den Emotionen des Schauspielers auf elektronischem Weg eine „Gefühlssymphonie“ zu komponieren.

Hilfe für Patienten mit emotionalen Störungen
Gee speicherte nicht nur die Nervensignale, sondern auch die Daten weiterer medizinischer Parameter wie Blutdruck, Atemfrequenz, Herztätigkeit und Schweißabsonderung. Mit einer speziellen Software wandelt sie die Daten anschließend in einen „Chor aus Gongs und Glocken“ um, so die Mitteilung der UWS. Zwar können wir „nicht Bens Gedanken lesen und Ihnen sagen, warum er bestimmte Gefühl hat“, aber die neue Technologie belege eindeutig, dass die Gefühle von Ben Schultz existieren und ermöglicht zu bestimmen, „wie viel er fühlt“, erläuterte Erin Gee. Studienleiter Vaughan Macefield ergänzte, dass die Forschung in dem Bereich „Affective Computing“ (Gefühlsinformatik) anzusiedeln sei. Hier sollen Maschinen dazu befähigt werden, menschliche Emotionen wahrzunehmen, zu interpretieren und entsprechend zu reagieren. Durch die Darstellung der Emotionen auf einem Monitor oder die Vertonung könnte "zum Beispiel Patienten mit emotionalen Störungen geholfen werden, ihre Gefühle besser zu verstehen", erläuterte der Studienleiter. Nach Ansicht von Macefield bietet das Verfahren bei vielen „psychische Erkrankungen und Störungen mit erhöhten oder abgestumpften emotionalen Reaktionen“ unter Umständen einen „therapeutischen Nutzen.“ Beispielsweise könne Autismus-Patienten geholfen werden, die Gefühle anderer besser zu verstehen, aber auch die eigenen Gefühle besser zum Ausdruck zu bringen.

In weiteren Experiment mit Schauspielern wollen die Forscher nun zusätzliche Daten gewinnen, die sie für eine Vertonung nutzen können. Es werden bisher ausschließlich Schauspieler als Probanden ausgewählt, da diese routinemäßig Gefühle wie Wut, Trauer oder Glück manifestieren können, berichten die australischen Wissenschaftler. Die Audiokünstlerin Erin Gee zeigte sich davon überzeugt, dass schon bald die ersten Menschen „fachmännisch ihre Gefühle spielen, als ob sie Cello spielen würden.“ Sie plant in Montreal für das kommende Jahr bereits die erste Show, bei der eine Symphonie der Gefühle aufgeführt werden soll. (fp)