Beim Sprechen ist nicht nur entscheidend, was, sondern auch wie man etwas sagt. Wenn beispielsweise Computerstimmen zuweilen unverständlich tönen, so rührt dies daher, dass ihnen die Prosodie fehlt. Erst Prosodie (griechisch für das «hinzu Gesungene») gibt dem gesprochenen Wort Bedeutung. Harmonieren Sprachrhythmus, Satzmelodie und Betonung nicht mit dem Satzbau, wird die Botschaft nicht kapiert. Nun weiss man schon einige Zeit, dass es meist die linke Hirnhälfte ist, welche die Sprachverarbeitung besorgt. Wo aber im Gehirn werden die Zwischentöne, die Prosodie einer Äusserung, erkannt und gewertet?
Wissenschaftler um Angela Friederici vom Max-Planck-Institut für Kognitions- und Neurowissenschaften glauben, eine Antwort auf diese Frage gefunden zu haben. Sie sprachen einerseits gesunden Versuchspersonen und dann solchen, bei denen der Verbindungsstrang (Corpus Callosum) zwischen den beiden Hirnhälften beschädigt war, eine Reihe von Testsätzen vor. Gaben Intonation und Satzbau kombiniert keinen Sinn, erkannte das Gehirn der gesunden Testpersonen den Konflikt jeweils sofort und reagierte mit einem charakteristischen EEG-Signal. War der Verbindungsstrang hingegen lädiert, blieb das Signal aus – das links lokalisierte Sprachzentrum hatte offenbar nicht erkannt, dass der syntaktisch richtige Satz mit sinnloser Betonung vorgelesen worden war. Daraus könne geschlossen werden, dass Prosodie hauptsächlich in der rechten Hirnhälfte verarbeitet wird, schreiben die Forscher nun in der Fachzeitschrift «Neuron». Somit wäre zumindest diese Frage geklärt. Und vielleicht noch eine andere dazu: Frauen aktivieren beim Zuhören beide Hirnhälften, haben andere Untersuchungen ergeben.
Männer dagegen gebrauchen dazu bloss die linke Gehirn-Hemisphäre. Könnte dies der Grund sein, dass in den Szenen einer Ehe «Du hörst mir ja überhaupt nicht zu» der meist gehörte Vorwurf an die Adresse der Männer ist?
Neuron 53: 135-145 (2007)