20 nov Onderzoek | Met wie je praat heeft invloed op hoe je praat
Persbericht Radboud Universiteit
Onderzoeker Orhun Uluşahin ontdekte dat mensen tijdens een gesprek hun eigen spraak aanpassen aan de persoon met wie ze praten. Hij promoveerde recentelijk aan de Radboud Universiteit en liet in zijn onderzoek zien dat onze hersenen zich razendsnel aanpassen aan een spreker om diegene te kunnen begrijpen. “In zekere zin luister je naar ieder mens met andere oren, omdat iedereen anders spreekt.” En dat leidt dus ook tot veranderingen in onze eigen spraak.
Geen twee mensen klinken hetzelfde. Of een vijfjarig meisje ‘fles’ zegt of een man van tachtig is een wereld van verschil. Daarom maakt ons brein aanpassingen aan elke individuele spreker. Dus of iemand nu snel of langzaam spreekt, met een hoge of lage toonhoogte, of met een bepaald dialect of een buitenlands accent, we passen ons snel aan om hen te begrijpen. Maar dit mechanisme beïnvloed niet alleen hoe we luisteren, maar ook hoe we spreken, ontdekte hersenwetenschapper Uluşahin. “Tijdens een gesprek passen mensen hun stem licht aan, waardoor ze akoestisch meer gaan klinken zoals hun gesprekspartner.”
Hogere of lagere toonhoogte
In verschillende experimenten liet Uluşahin proefpersonen luisteren en spreken naar opgenomen stemmen. In een van de tests kregen mensen de opdracht een zin na te zeggen op hetzelfde tempo als de opgenomen stem. De onderzoekers analyseerden niet alleen hoe synchroon mensen de zin uitspraken, maar ook op welke toonhoogte. Mensen die de zin in een hogere toonsoort hoorden, gingen zelf ook hoger praten en bij een lagere toonsoort juist lager.
Opvallend was dat dit effect kleiner was wanneer de proefpersonen al langer naar een bepaalde stem geluisterd hadden. Stel: ze luisteren twintig minuten naar een relatief hoge vrouwenstem. Daarna komt er een test waarin ze een zin moeten nazeggen, die zin wordt uitgesproken door diezelfde vrouwenstem, maar dan op een lagere toonhoogte. In dat geval zijn mensen minder geneigd hun eigen stem aan te passen naar een lagere toonhoogte, waarschijnlijk omdat ze dan informatie gebruiken die ze al hebben over een spreker.
Deze uitkomst laat zien dat ons luistersysteem en spraaksysteem dezelfde bronnen gebruiken in de hersenen. “Wat je weet over de manier waarop iemand praat heeft niet alleen invloed op hoe je luistert, maar ook op hoe je zelf praat”, volgens de hersenonderzoeker. “Het taalnetwerk in ons brein is nog groter en dynamischer dan we dachten. Bijna onze hele linkerhersenhelft is betrokken bij taal, maar we kunnen niet aanwijzen waar we precies woorden vormen of lipbewegingen plannen, alleen bepaalde gebieden. Dit onderzoek laat op procesniveau zien dat luisteren en spreken geen totaal verschillende dingen zijn, maar dat het met elkaar verbonden is.”
Woorden herkennen
In een ander experiment liet Uluşahin mensen een woord herhalen. Het woord dat ze hoorden was akoestisch heel subtiel aangepast, waardoor bijvoorbeeld het woord ‘beterschap’ klonk als ‘beuhterschap’. In dit geval pasten mensen hun eigen stem niet aan. “Je hoort gewoon ‘beterschap’, ook al klinkt het eigenlijk net anders”, legt de onderzoeker uit. “Je hersenen gaan voor de meest waarschijnlijke optie, dat wat ze al kennen. Je spreekt daarom zelf het woord uit zoals je anders ook zou doen. Er zijn dus ook duidelijke grenzen aan dit aanpassingsvermogen.”
Uluşahin ontwikkelt op dit moment een computermodel dat de menselijke woordherkenning nabootst, door woorden uit een zin te halen en dit vermogen aan te passen aan verschillende sprekers. “Voor de ene stem moet het model een klank interpreteren als een ‘b’, terwijl het voor iemand anders precies dezelfde klank misschien moet interpreteren als een ‘p’, omdat deze twee mensen deze klanken anders uitspreken”, zegt hij. “We willen dat het model fouten maakt, net als mensen, in plaats van een model te ontwikkelen dat zo min mogelijk fouten maakt, zoals een technologiebedrijf misschien zou willen. Dat is de uitdaging. Hopelijk helpt dit ons om onze hersenen nog beter te begrijpen.”
Geen reactie's