Gewohnheit, Charakter, Emotionen
Die Stimme und das Gesicht eines Menschen transportieren eine Vielzahl sozialer Informationen. Ungeklärt ist in den meisten Fällen, wie das Gehirn die Informationen aufnimmt und verarbeitet. Das will eine interdisziplinäre Forschergruppe in Jena ändern.
Mithilfe einer Software, entwickelt vom japanischen Wissenschaftler Prof. Hideki Kawahara, lassen sich Stimmen in genau kalkulierbaren Anteilen vermischen.
An der Uni Jena nutzt die Medieninformatikerin Verena Skuk die Software:
"Wir nutzen meistens Silben wie Aba, Aga, Ibi oder Igi, damit es keinen sprachlichen Inhalt noch hat, der dann eine Bedeutung enthält oder der dann Effekte in den Experimenten bringt."
Und in denen geht es um allein durch die Stimme transportierte Inhalte, also z.B. um das wahrgenommene Alter oder Geschlecht eines Sprechers. So konnten sogenannte Nacheffekte festgestellt werden, bei denen Hörer eine 50:50 gemischt geschlechtliche Stimme als weiblich identifizierten, wenn sie zuvor deutlich männliche Stimmen gehört hatten und umgekehrt.
"Und diese Erkenntnisse, man kann dann auf Prozesse rückschließen, wie das Gehirn diese Stimmen verarbeitet. Und solche Stimmen, das können wir nicht nur für Geschlecht machen, sondern auch für Alter oder für Identität oder für Emotionen."
So lässt sich mithilfe der Software wissenschaftlich der Frage nachgehen, wie gut Hörer Emotionen in der Stimme eines Sprechers wahrnehmen können. Bei Männern und Frauen zeigen sich große Unterschiede, sagt Sonja Kotz, Neuropsychologin am Max-Planck-Institut in Leipzig:
"Also, wenn ich als weiblicher Hörer ne männliche oder weibliche Stimme wahrnehme, die emotional was ausdrückt, sei das jetzt ein Schrei oder ein gesprochener Satz: Da scheint es prinzipiell unterschiedliche Sensitivitäten zu geben. Man geht in manchen Studien davon aus, dass Frauen das sehr viel schneller wahrnehmen können und auch sehr viel korrekter wahrnehmen können als Männer."
Das bloße Erkennen von Stimmen gelingt beinahe allen Menschen sehr gut. Wie das im Gehirn funktioniert, ist nicht ganz klar. Lange wurde vermutet, dass es ganz konkrete, für alle Stimmen gültige Parameter zur Erkennung gibt.
Doch daran glaubt Stefan Schweinberger nicht, er ist Professor für Psychologie in Jena und Leiter der Person Perception-Forschergruppe:
"Es scheint eher so zu sein, dass unterschiedliche Sprecher anhand von unterschiedlichen akustischen Merkmalen identifiziert werden. Manche Menschen haben vielleicht eine sehr tiefe, fundamentale Frequenz. Diese Art von Stimmen werden Sie an der Frequenzzusammensetzung erinnern. Andere Sprecher haben vielleicht auch ganz minimale Sprachfehler oder jedenfalls Besonderheiten in der Artikulation. Und solche Sprecher werden Sie dann eher an diesen Aspekten wiedererkennen."
Doch nicht nur die Stimme, auch das Gesicht löst eine Vielzahl von Wahrnehmungsprozessen aus. Im Gehirn existieren Areale die jeweils eine zentrale Bedeutung für die Erkennung von Gesichtern und Stimmen haben. Beide liegen gar nicht so nah beieinander, verfügen aber über starke neuronale Verbindungen und arbeiten eng zusammen. Das konnte mithilfe von Bild gebenden Verfahren nachgewiesen werden.
Ebenso, dass bei der Gesichtererkennung der Gyrus fusiformis eine wichtige Rolle spielt, eine Gehirnwindung hinter dem rechten Ohr gelegen. Menschen, die nach einem Schlaganfall oder Unfall dort einen Schaden haben, können häufig selbst die Gesichter enger Verwandter nicht wieder erkennen. Bei der funktionierenden Erkennung aber konzentrieren wir uns wohl, wie bei der Stimme, auf jeweils charakteristische Merkmale, sagt der Psychologe Dr. Holger Wiese:
"Es gibt die Idee, dass wir so etwas wie einen Prototypen von einem Gesicht bilden, d heißt, wenn Sie sich das mit Fotos vorstellen, je mehr unterschiedliche Fotos Sie von der selben Person haben und dann ne große Variabilität haben - was Sie machen eigentlich ist, dass Sie alle diese Fotos sozusagen mitteln und so was wie einen Prototypen für sich erstellen aus all diesen Bildern. Dann bekommen Sie diejenigen Eigenschaften rausgefiltert, die ganz spezifisch für diese Person sind."
Innerhalb der Jenaer Forschergruppe beschäftigt sich Holger Wiese unter anderem mit dem Phänomen, dass wir große Schwierigkeiten haben, Gesichter einer anderen ethnischen Gruppe wiederzuerkennen. Ein Erklärungsansatz:
"Wir lernen die Informationen zu benutzen, die wir zur Verfügung haben. Europäische Menschen unterscheiden sich z. B. in ihrer Augenfarbe, chinesische Menschen haben alle braune Augen. Wenn wir lernen, dass Augenfarbe ein relevanter Hinweisreiz ist, um Menschen auseinanderzuhalten, dann funktioniert das hervorragend mit europäischen Gesichtern, aber nicht mit asiatischen Gesichtern.
Genauso sagen Asiaten, dass Europäer alle sehr ausgeprägte Nasen haben - das würden wir wahrscheinlich nicht so sagen. Das heißt, unterschiedliche Gruppen von Menschen wegen ihrer unterschiedlichen Erfahrungen benutzen wahrscheinlich auch andere Informationen aus den Gesichtern."
Doch es sind nicht nur andere Ethnien, deren Gesichter wir schlecht auseinanderhalten können.
"Bei unseren Studenten hier, die sehr wenig Kontakt zu alten Menschen haben, was man über Fragebögen nachweisen kann, finden wir sehr häufig, dass Studenten auch deutlich schlechter darin sind, sich Gesichter von älteren Menschen zu merken als Gesichter der eigenen Altersgruppe. Das hat eben auch teilweise mit Kontakt zu tun.""
Die Ergebnisse und angewendeten Tests der Forschergruppe aus Jena könnten beispielsweise im Gerichtssaal zur Anwendung kommen.
"Wenn's um Augenzeugenaussagen geht, z. B. bei der Frage, wenn der Angeklagte in einem Gerichtsverfahren einer anderen ethnischen Gruppe oder Altersgruppe angehört, ist der Zeuge möglicherweise dadurch schon benachteiligt. Und wie glaubwürdig kann eine Augenzeugenaussage sein, wenn wir vielleicht über diese Person herausfinden können, ob sie eine gute oder schlechte Wiedererkennungsleistung bei Gesichtern hat."
Die zukünftigen Ergebnisse könnten z. B. dabei helfen, spezielle Rehabilitationsmaßnahmen zu entwickeln, für Menschen, die unter Prosopagnosie oder Phonagnosie leiden, die also keine Gesichter oder Stimmen wiedererkennen können. Erstes Ziel ist es aber, mithilfe der neuen digitalen Bild-, Video- und Audiobearbeitung eine umfassende Theorie der Prozesse der Personenwahrnehmung zu entwerfen.
An der Uni Jena nutzt die Medieninformatikerin Verena Skuk die Software:
"Wir nutzen meistens Silben wie Aba, Aga, Ibi oder Igi, damit es keinen sprachlichen Inhalt noch hat, der dann eine Bedeutung enthält oder der dann Effekte in den Experimenten bringt."
Und in denen geht es um allein durch die Stimme transportierte Inhalte, also z.B. um das wahrgenommene Alter oder Geschlecht eines Sprechers. So konnten sogenannte Nacheffekte festgestellt werden, bei denen Hörer eine 50:50 gemischt geschlechtliche Stimme als weiblich identifizierten, wenn sie zuvor deutlich männliche Stimmen gehört hatten und umgekehrt.
"Und diese Erkenntnisse, man kann dann auf Prozesse rückschließen, wie das Gehirn diese Stimmen verarbeitet. Und solche Stimmen, das können wir nicht nur für Geschlecht machen, sondern auch für Alter oder für Identität oder für Emotionen."
So lässt sich mithilfe der Software wissenschaftlich der Frage nachgehen, wie gut Hörer Emotionen in der Stimme eines Sprechers wahrnehmen können. Bei Männern und Frauen zeigen sich große Unterschiede, sagt Sonja Kotz, Neuropsychologin am Max-Planck-Institut in Leipzig:
"Also, wenn ich als weiblicher Hörer ne männliche oder weibliche Stimme wahrnehme, die emotional was ausdrückt, sei das jetzt ein Schrei oder ein gesprochener Satz: Da scheint es prinzipiell unterschiedliche Sensitivitäten zu geben. Man geht in manchen Studien davon aus, dass Frauen das sehr viel schneller wahrnehmen können und auch sehr viel korrekter wahrnehmen können als Männer."
Das bloße Erkennen von Stimmen gelingt beinahe allen Menschen sehr gut. Wie das im Gehirn funktioniert, ist nicht ganz klar. Lange wurde vermutet, dass es ganz konkrete, für alle Stimmen gültige Parameter zur Erkennung gibt.
Doch daran glaubt Stefan Schweinberger nicht, er ist Professor für Psychologie in Jena und Leiter der Person Perception-Forschergruppe:
"Es scheint eher so zu sein, dass unterschiedliche Sprecher anhand von unterschiedlichen akustischen Merkmalen identifiziert werden. Manche Menschen haben vielleicht eine sehr tiefe, fundamentale Frequenz. Diese Art von Stimmen werden Sie an der Frequenzzusammensetzung erinnern. Andere Sprecher haben vielleicht auch ganz minimale Sprachfehler oder jedenfalls Besonderheiten in der Artikulation. Und solche Sprecher werden Sie dann eher an diesen Aspekten wiedererkennen."
Doch nicht nur die Stimme, auch das Gesicht löst eine Vielzahl von Wahrnehmungsprozessen aus. Im Gehirn existieren Areale die jeweils eine zentrale Bedeutung für die Erkennung von Gesichtern und Stimmen haben. Beide liegen gar nicht so nah beieinander, verfügen aber über starke neuronale Verbindungen und arbeiten eng zusammen. Das konnte mithilfe von Bild gebenden Verfahren nachgewiesen werden.
Ebenso, dass bei der Gesichtererkennung der Gyrus fusiformis eine wichtige Rolle spielt, eine Gehirnwindung hinter dem rechten Ohr gelegen. Menschen, die nach einem Schlaganfall oder Unfall dort einen Schaden haben, können häufig selbst die Gesichter enger Verwandter nicht wieder erkennen. Bei der funktionierenden Erkennung aber konzentrieren wir uns wohl, wie bei der Stimme, auf jeweils charakteristische Merkmale, sagt der Psychologe Dr. Holger Wiese:
"Es gibt die Idee, dass wir so etwas wie einen Prototypen von einem Gesicht bilden, d heißt, wenn Sie sich das mit Fotos vorstellen, je mehr unterschiedliche Fotos Sie von der selben Person haben und dann ne große Variabilität haben - was Sie machen eigentlich ist, dass Sie alle diese Fotos sozusagen mitteln und so was wie einen Prototypen für sich erstellen aus all diesen Bildern. Dann bekommen Sie diejenigen Eigenschaften rausgefiltert, die ganz spezifisch für diese Person sind."
Innerhalb der Jenaer Forschergruppe beschäftigt sich Holger Wiese unter anderem mit dem Phänomen, dass wir große Schwierigkeiten haben, Gesichter einer anderen ethnischen Gruppe wiederzuerkennen. Ein Erklärungsansatz:
"Wir lernen die Informationen zu benutzen, die wir zur Verfügung haben. Europäische Menschen unterscheiden sich z. B. in ihrer Augenfarbe, chinesische Menschen haben alle braune Augen. Wenn wir lernen, dass Augenfarbe ein relevanter Hinweisreiz ist, um Menschen auseinanderzuhalten, dann funktioniert das hervorragend mit europäischen Gesichtern, aber nicht mit asiatischen Gesichtern.
Genauso sagen Asiaten, dass Europäer alle sehr ausgeprägte Nasen haben - das würden wir wahrscheinlich nicht so sagen. Das heißt, unterschiedliche Gruppen von Menschen wegen ihrer unterschiedlichen Erfahrungen benutzen wahrscheinlich auch andere Informationen aus den Gesichtern."
Doch es sind nicht nur andere Ethnien, deren Gesichter wir schlecht auseinanderhalten können.
"Bei unseren Studenten hier, die sehr wenig Kontakt zu alten Menschen haben, was man über Fragebögen nachweisen kann, finden wir sehr häufig, dass Studenten auch deutlich schlechter darin sind, sich Gesichter von älteren Menschen zu merken als Gesichter der eigenen Altersgruppe. Das hat eben auch teilweise mit Kontakt zu tun.""
Die Ergebnisse und angewendeten Tests der Forschergruppe aus Jena könnten beispielsweise im Gerichtssaal zur Anwendung kommen.
"Wenn's um Augenzeugenaussagen geht, z. B. bei der Frage, wenn der Angeklagte in einem Gerichtsverfahren einer anderen ethnischen Gruppe oder Altersgruppe angehört, ist der Zeuge möglicherweise dadurch schon benachteiligt. Und wie glaubwürdig kann eine Augenzeugenaussage sein, wenn wir vielleicht über diese Person herausfinden können, ob sie eine gute oder schlechte Wiedererkennungsleistung bei Gesichtern hat."
Die zukünftigen Ergebnisse könnten z. B. dabei helfen, spezielle Rehabilitationsmaßnahmen zu entwickeln, für Menschen, die unter Prosopagnosie oder Phonagnosie leiden, die also keine Gesichter oder Stimmen wiedererkennen können. Erstes Ziel ist es aber, mithilfe der neuen digitalen Bild-, Video- und Audiobearbeitung eine umfassende Theorie der Prozesse der Personenwahrnehmung zu entwerfen.