Bild: 
Danijela Dobric

Tala i toner

Musik och språk är kolleger i hjärnan. Vårt melodisinne hjälper oss att lära oss tala, läsa och till och med att skaffa oss vänner.

En eftermiddag sommaren 1995 hände något konstigt. Jag lade sista handen vid mina inlästa kommentarer på en cd om musik och hjärnan som jag arbetade med. För att upptäcka avbrott i inspelningen körde jag fraserna i loopar så att jag kunde höra dem gång på gång. Vid ett tillfälle, när jag var ensam i rummet, satte jag på en av fraserna, sometimes behave so strangely (’beter sig ibland så underligt’), i en loop, började arbeta med någonting annat och glömde bort loopen. Plötsligt tyckte jag mig höra en främmande kvinna sjunga! Efter att ha sett mig omkring utan att upptäcka någon, insåg jag att det jag hörde var min egen röst som upprepade frasen – men i stället för tal uppfattade jag nu en melodi. Mitt tal hade omvandlats till sång bara genom att upprepas.

Denna observation, som jag senare förstod är något som de flesta människor upplever, visar att gränsen mellan tal och sång kan vara hårfin. Tonsättare har använt sig av de starka banden mellan musik och tal och till exempel infogat talade ord och fraser i sina verk. Mycket av det man kan uttrycka med rösten tycks dessutom befinna sig på gränsen mellan tal och sång – däribland religiösa recitativ och rituella sånger, oratorier, operarecitativ (en operastil som kan liknas vid vanligt tal som sjungs), gatuförsäljares rop och en del rappande.

Men det som musiker och vanliga lyssnare har uppfattat, har stridit mot den vetenskapliga uppfattningen att tal och musik styrs av olika områden i hjärnan. Psykologer, lingvister och forskare inom neurovetenskap har dock nyligen ändrat uppfattning, sedan man med hjälp av avancerade hjärnavbildningstekniker har kunnat samla bevis för att de hjärnområden som styr musik och språk överlappar varandra. De senaste rapporterna visar att dessa områden är så sammanvävda att musikmedvetande har avgörande betydelse för spädbarnets språkutveckling, och att det till och med hjälper till att stärka bandet mellan mor och barn. Det finns de som menar att när barnen blir äldre kan musikundervisning främja kommunikationsförmågan, och till och med läsfärdigheten. Dessutom är de neurologiska banden mellan musik och språk dubbelriktade: en persons modersmål påverkar hur hon eller han uppfattar musik. Samma tonföljd kan låta olika beroende på vilket språk som lyssnaren har vuxit upp med, och sannolikheten för att människor som talar tonspråk, till exempel kinesiska, har absolut gehör är betydligt större än att västerlänningar har det.

Musiker och filosofer har länge hävdat att tal och melodi är förbundna med varandra. Den ryske tonsättaren Modest Mussorgskij trodde att musik och tal i grunden är så lika att tonsättare skulle kunna återge ett samtal. Han skrev till sin vän Rimskij-Korsakov: ”Så snart jag hör tal, oavsett vem det är som talar […] börjar min hjärna omedelbart utarbeta en musikalisk framställning av talet.” Och när man lyssnar på en del av hans piano- och orkesterverk kan man verkligen upptäcka att man ”hör” det ryska språket.

Trots sådana informella bevis på sambandet mellan tal och musik, började forskare i mitten av 1900-talet – delvis med stöd av patienter vars hjärnskador påverkade talet men inte den musikaliska förmågan – inta motsatt ståndpunkt. Hjärnan består av två halvor och experterna antog att funktionerna i hjärnan var lika prydligt uppdelade, och att språkförmågan var placerad i vänster hjärnhalva medan musikaliteten fanns i höger. Enligt deras teori passerade nervsignalerna för dialog förbi de vanliga nervbanorna för ljudbearbetning för att i stället analyseras i en oberoende ”modul” i vänstra hjärnhalvan. Denna modul antogs utesluta icke-verbala ljud, som musik. På liknande sätt skulle musik bearbetas i modulen i höger hjärnhalva. Där var inte några språkljud välkomna. Denna tilltalande tudelning blev så populär, att den under årtionden effektivt utestängde varje tanke på att språk och musik skulle kunna vara neurologiskt – och funktionellt – sammanflätade.

Men därefter, i slutet av 1990-talet, började dessa tankar ifrågasättas av en generation unga forskare, som inte hade något intresse av att hålla isär tal och sång. De tog fram data som redan fanns, och som tydde på att vissa aspekter av musiken engagerar den vänstra hjärnhalvan mer än den högra. Dessutom visade nya banbrytande experiment, där framväxande teknologi som magnet­kameror ofta användes, att musik och tal inte är så neurologiskt åtskilda som vissa forskare har trott.

Det gick nu att visa att uppfattning och bedömning av musik kunde påverka hjärnområden som hade betraktats som centrum för språkbearbetning. Stefan Koelsch, forskare i neurovetenskap, var 2002 anställd vid Max Planck-institutet för mänsklig kognitions- och hjärnvetenskap i Leipzig i Tyskland. Där lät han och hans kolleger försökspersoner höra ackordsekvenser, samtidigt som deras hjärnor avbildades med funktionell magnet­kamera. Forskarna fann att denna uppgift krävde aktivitet i båda hjärnhalvorna, men framför allt i två områden i den vänstra halvan, Brocas och Wernickes områden (se bilden på sidan 51), som har stor betydelse för språkbearbetning. Många forskare har trott att Brocas och Wernickes områden ute­slutande har denna funktion. Andra, nyare undersökningar har avslöjat att tal aktiverar många av de hjärnområden som också används vid sång. Dessa resultat, liksom ett dussin andra, har fastslagit att de neurala nätverk som används för tal och sång kraftigt överlappar varandra.

Överlappningen verkar rimlig, efter­som språk och musik har en hel del gemensamt. Båda styrs av en grammatik, som hierarkiskt organiserar grundelement i sekvenser enligt etablerade regler. I språket sätts ord samman till fraser som därefter sätts samman till större fraser, vilka i sin tur kombineras till meningar. I musiken kombineras på liknande sätt toner till fraser som sätts samman och bildar längre fraser och så vidare. För att förstå såväl språk som musik måste lyssnarna därför använda regler, som de har förenat genom erfarenhet, för att kunna sluta sig till strukturen i de passager som de hör.

Språket har dessutom en naturlig melodi, så kallad satsmelodi eller prosodi. Denna omfattar övergripande tonhöjd och tonomfång, tonkontur (mönstret av upp- och nedgång i tonhöjd), variation i ljudstyrka, rytm och tempo. De prosodiska egenskaperna avspeglar ofta talarens känslomässiga tillstånd. När vi är glada eller upprymda brukar vi tala snabbare, i ett högre tonläge och med större tonomfång. När vi är ledsna tenderar vi att tala långsammare, med svagare röst och mindre variation i tonhöjden. Prosodin hjälper oss också att förstå talets flöde och innebörd. Gränserna mellan meningar markeras i allmänhet av pauser, och frasslut brukar utmärkas av lägre tonhöjd och långsammare tal. Dessutom får ofta viktiga ord högre tonhöjd. Intressant nog uppträder en del av språkets tonhöjds- och rytmegenskaper även i musik, vilket tyder på att det rör sig om överlappande nervkretsar.

Spädbarn känner redan vid födelsen igen sin mammas prosodi. Ljudupptagningar som har gjorts inuti livmodern i början av förlossningen avslöjar att språkljud som produceras av mamman kan höras tydligt. Men de fraser som når spädbarnet har filtrerats genom mammans vävnad, så att de vassa, höga frekvenserna – som bär mycket av den information som är viktig för att man ska kunna identifiera ordens innebörd – dämpas, medan talets musikaliska egenskaper – dess tonhöjd, konturer, variationer i ljudstyrka, tempo och rytmiskt mönster – bevaras väl.

Dessa ”talade melodier” tycks utgöra en bakgrund för anknytningen mellan mor och barn. Psykologiforskare vid University of North Carolina at Greensboro, och University of Columbia spelade in nyblivna mammor som läste en historia högt för sina barn. I experimentet kunde de nyfödda starta inspelningarna genom att suga på en napp, ett samband som de så småningom lärde sig. Det visade sig att de sög oftare när det ledde till att de fick höra sin mammas röst än när det satte i gång en annan kvinnas röst. Forskarna menade att spädbarnen föredrog att lyssna på de röster som de hade bekantat sig med före födseln.

Senare har det gjorts ett liknande experiment, där forskarna använde ett lågpassfilter för att göra inspelade kvinnoröster dovare, så att dessa lät som de skulle ha gjort i livmodern. De nyfödda barnen föredrog sina mammors filtrerade röster framför andra kvinno­röster. Det tyder också på att barnen i livmodern hade lärt sig känna igen sin mammas prosodi.

Förutom att det främjar anknytningen mellan mor och barn, kan tidig exponering för satsmelodi göra att barnen börjar lära sig tala. I en undersökning från 1993 visade det sig till exempel att två dagar gamla barn föredrog att lyssna på inspelningar av tal på sitt eget modersmål framför inspelningar av främmande språk. Eftersom så små barn bara kan ha hört sådant tal i livmodern, tyder resultaten på att spädbarnen från början kände sig trygga med de musikaliska egenskaperna i sitt eget språk.

Prosodi kan alltså vara den del av talet som spädbarn först lär sig återskapa. Långt innan de kan uttala riktiga ord upprepar spädbarn de inneboende melodierna i sitt modersmål när de gråter. Tyska antropologer spelade in skrik från nyfödda barn, födda i antingen fransk- eller tysktalande familjer. Barnens skrik steg först i tonhöjd, för att sedan sjunka. Forskarna fann att de franska spädbarnens skrik mest bestod av den stigande delen, medan den sjunkande delen dominerade i de tyska spädbarnens skrik. Stigande tonhöjd är särskilt vanligt i franskt tal, medan sjunkande tonhöjd utmärker tyska. De nyfödda barnen tog i sitt skrikande alltså in en del av de musikaliska elementen i det tal som de hade exponerats för i livmodern. De hade redan lärt sig att använda några egenskaper i sitt modersmål.

Efter ett barns födelse är satsmelodin också mycket viktig för kommunikationen med barnet. Föräldrar använder överdrivna satsmelodier, så kallat barnriktat tal – eller motherese, när de pratar med sina spädbarn. Detta språk karakteriseras av högt tonläge, stort tonomfång, långsamt tempo, långa pauser och korta meningar. Dessa melodiska överdrifter gör det lättare för barn som ännu inte förstår vad orden betyder, att fatta vad deras förälder vill. Alltså använder föräldrarna fallande tonkontur för att trösta sitt barn och stigande tonkontur för att fånga barnets uppmärksamhet. För att uttrycka uppskattning eller beröm, använder de brant stigande och fallande konturer som i d-u-u-u-ktig flicka! När de uttrycker ogillande som i aja baja! blir rösten låg och ljuden kommer i stackato.

I en undersökning vid Stanford university fick fem månader gamla spädbarn från engelsktalande familjer lyssna på uppskattande respektive tillrättavisande fraser på tyska, italienska, nonsensengelska och vanligt engelskt barnriktat tal. Även om allt var rappakalja för barnen, svarade de med adekvata känslor. De log när de hörde uppskattande fraser, och blev dämpade eller grät när de hörde förmaningar. Enbart satsmelodin kunde alltså överföra budskapet.

Även om förmågan att känna igen satsmelodier är medfödd, kan människor finslipa den genom att ta musiklektioner. Mireille Besson och Sylvain Moreno, forskare i neurovetenskap, gjorde en studie där åttaåriga barn delades in i två grupper. Inget av barnen hade fått någon undervisning i musik. Sedan fick den ena gruppen musikundervisning i sex månader, medan den andra i stället fick lära sig att måla. Både före och efter undervisningen lyssnade barnen på inspelade meningar. I en del av meningarna hade det sista ordet förhöjt tonläge, så att det bröt av mot resten av meningen. Barnen uppmanades att ange vilka meningar som var avvikande. I början skilde sig inte grupperna åt i förmåga att upptäcka förändringarna i tonhöjd, men efter sex månader var barnen som hade fått musiklektioner bättre än de andra. Barn som får musikundervisning kan således ha lättare att uppfatta talets känslomässiga innehåll – och betydelse.

Musikundervisning kan påverka uppfattningen av prosodin, delvis genom att ställa in hjärnstammens auditiva del – en grupp strukturer som tar emot signaler från örat och hjälper till att avkoda såväl tal- som musikljud. Neurovetare vid Northwestern university gjorde en undersökning där de lät engelsk­talande försökspersoner höra kinesiska språkljud, samtidigt som den elektriska aktiviteten i hjärnstammens auditiva del mättes med hjälp av elektroder. Reaktionen på kinesiskan var starkare hos de försökspersoner som hade fått musik­undervisning – och ju tidigare de hade börjat med den, och ju längre de hade hållit på, desto starkare blev aktiviteten i dessa hjärnområden (se faktarutan på sidan 54).

Ytterligare forskning visar att musikundervisning kan förbättra förmågan att upptäcka de känslor som förmedlas via talet (antagligen genom ökad prosodisk medvetenhet). Psykologen William F. Thompson vid University of Toronto gav en grupp sexåringar klaviaturlektioner under ett år, och testade sedan deras förmåga att identifiera känslor som uttrycktes i talade meningar. Barnens förmåga till detta jämfördes med förmågan hos barn som inte hade fått någon musikundervisning. Barnen som hade fått musikundervisning visade sig ha lättare att uppfatta om meningar uttalades med rädsla eller ilska i rösten – också på ett språk som de inte kände till.

Musikundervisning skulle till och med kunna få läsinlärningen att gå snabbare. I tester av musikalisk förmåga får goda läsare ofta bättre resultat än dåliga läsare (även om det finns många undantag från denna regel). I undersökningen av åttaåringarna, som beskrevs ovan, visade de som hade fått musikunder­visning också bättre läsförmåga än barnen som hade lärt sig måla, vilket kan vara ett tecken på att musikalisk färdighet kan sprida sig till förmågan att avkoda skrivna ord. Forskare har även hävdat att musikundervisning (i kombination med annan terapi) med gott resultat skulle kunna ingå i behandling av dyslexi.

Men exponering för musik kan inte bara förbättra våra språkfärdigheter. Det språk som vi hör påverkar också vår musikperception. När det gäller en ”musikalisk illusion” kallad tritonusparadoxen, som jag upptäckte på 1980-talet, får en person höra två datorgenererade toner som ligger en halv oktav från varandra (eller på tritonusintervall), den ena efter den andra. Varje ton är tydligt definierad, till exempel c, ciss eller d, men vilken oktav som tonen tillhör är oklart. Tonen kan sålunda ligga i någon av de ettstrukna, ostrukna eller tvåstrukna oktaverna eller i någon annan oktav. Lyssnarens uppgift är att avgöra om mönstret har stigande eller sjunkande tonhöjd. (På grund av oklarheten beträffande i vilken oktav tonerna är placerade, finns det inte något korrekt svar, och förnimmelsen varierar mellan lyssnarna.)

Intressant nog fann jag att bedömningar av det här slaget berodde på vilket språk eller vilken dialekt som lyssnaren talade. Därför bad jag personer som hade vuxit upp i Kalifornien och personer som hade vuxit upp i södra England att bedöma dessa tritonustoner. Jag fann att när de från Kalifornien uppfattade mönstret som stigande, hade de från södra England en benägenhet att uppfatta mönstret som fallande – och vice versa. I en annan studie fann jag samma uppdelning mellan lyssnare från Vietnam och engelsktalande personer födda i Kalifornien. Det språk som vi lär oss tidigt i livet verkar alltså ge oss en musikalisk mall som påverkar vår uppfattning av tonhöjd.

En sådan mall skulle också kunna begränsa röstens tonomfång. När jag undersökte tonomfånget i kvinnligt tal i två kinesiska byar, fann jag att tonomfånget hos människor från samma by var likartat, men att det skilde sig åt mellan byarna. Det skulle kunna betyda att skillnader i röster som vi hör runt omkring oss kan påverka tonhöjden i vårt eget tal.

Det språk som vi exponeras för kan också i stor utsträckning påverka våra möjligheter att utveckla absolut gehör – förmågan att benämna en ton utan att ha någon referenston att utgå från. Denna förmåga är mycket ovanlig i västerländsk kultur: endast en av 10 000 nordamerikaner bedöms ha den.

Vietnamesiska och kinesiska är ton­språk, där ord får helt olika innebörd beroende på tonhöjden. På vietnamesiska betyder ordet ba uttalat i mellanregistret ’pappa’. Samma ord uttalat med låg och sjunkande ton betyder ’mormor’. På mandarinkinesiska betyder ordet ma uttalat med hög och jämn ton ’mamma’, men om man säger det med en låg ton, som först sjunker och sedan stiger, betyder det ’häst’ (se tabellen nedan).

Vietnamesisk- och mandarintalande personer är inte bara känsliga för tonhöjder. De kan också producera ord med samma absoluta tonhöjd. Under två olika dagar fick infödda mandarin- och vietnamesisktalande läsa upp en lista med ord på sitt modersmål. Vi fann att deras tonhöjd var anmärkningsvärt stabil. När inspelningarna från de båda dagarna jämfördes, visade hälften av försökspersonerna tonhöjdsskillnader på mindre än ett halvt tonsteg.

Kunde det vara så att människor som talar tonspråk under spädbarnstiden förvärvar absolut gehör för tonerna i sitt språk, tillsammans med andra utmärkande drag hos sitt modersmål? De som talar tonspråk skulle i så fall ha mycket lättare att utveckla absolut gehör än de som inte talar tonspråk.

I ett experiment testade jag och mina kolleger absolut gehör hos två stora grupper musikkonservatoriestudenter – talare av mandarinkinsesiska vid Central conservatory of music i Peking och elever vid Eastman school of music i Rochester, New York, som talade engelska eller något annat språk som inte var tonspråk. Vi fann att förekomsten av absolut gehör verkligen var betydligt större bland de mandarintalande. Dessa resultat var förenliga med min hypotes, men eftersom studenterna vid Central conservatory alla var kineser, skulle resultatet också kunna betyda att gener som stimulerar utvecklingen av absolut gehör är vanligare bland kineser.

För att avgöra vilken förklaring som var den riktiga, testades studenter vid musik­konservatoriet i Southern California. Dels engelsktalande, dels tre grupper östasiatiska studenter, vilka delades upp efter hur bra de talade sitt tonala modersmål. Bland de engelsktalande studenterna var förekomsten av absolut gehör endast åtta procent för dem som hade börjat sin musikutbildning vid fem års ålder eller tidigare, och en procent för dem som hade börjat utbildningen när de var sex eller nio år. Statistiken var ungefär densamma bland de östasiatiska studenter som inte talade sitt modersmål flytande. De studenter som talade sitt tonala modersmål flytande, presterade däremot utomordentligt väl på vårt test: 92 procent av dem som hade börjat musikutbildning vid fem års ålder eller tidigare hade absolut gehör, liksom 67 procent av dem som hade börjat ta musik­lektioner när de var sex eller åtta år. De studenter som talade ett tonspråk hyfsat bra, hamnade mellan de två ytterligheterna. Dessa resultat pekar starkt på att den höga förekomsten av absolut gehör bland människor som talar tonspråk inte är genetiskt betingad, utan i stället har samband med hur mycket de har exponerats för språket.

Det språk vi lär oss under den tidiga barndomen, och fortsätter att tala, kan ha djupgående inverkan på hur vi avkodar musikljud. I många avseenden tycks musik och tal verkligen vara spegelbilder, där båda förmågorna spelar en väsentlig roll för utvecklingen av den andra – för hur vi som människor knyter an till varandra och kommunicerar, för hur vi uppfattar ljuden omkring oss, för vår förståelse av språk och för hur våra sinnen fungerar.

Fotnot: Diana Deutsch har spelat in två cd med en del av de ”auditiva illusioner” som hon har upptäckt: Musical illusions and paradoxes och Phantom words and other curiosities (http://philomel.com).

Singing in the brain
  • De nervbanor i hjärnan där musik tolkas över­lappar dem som bearbetar tal.
  • Talets musikaliska egenskaper har avgörande betydelse för den tidiga språkinlärningen och anknytningen mellan mor och barn.
  • En persons modersmål kan påverka hur hon eller han uppfattar en tonföljd i musik.

 

Inställning i hjärnan

I en undersökning som utfördes 2007 registrerade forskare hjärnvågorna hos människor som lyssnade på inspelningar av ord på mandarinkinesiska. Försökspersonerna, som alla talade engelska, förstod inte innebörden i det som de hörde. De som hade musikbakgrund uppvisade dock betydligt starkare elektrisk respons i den så kallade auditiva hjärnstammen än de som inte hade någon musikutbildning. Undersökningsresultaten tyder på att man genom att lära sig sjunga eller spela ett instrument kan bli mer uppmärksam på satsmelodin.

Vad innehåller ett ord?

I ett tonspråk som kinesiska beror ett ords betydelse på tonhöjden och tonhöjdsmönstret. Nedan finns exempel på ord som är fonetiskt lika, men som får fyra helt olika innebörder beroende på vilken tonhöjd de uttalas med. (Ton 1 är hög och rak, ton 2 börjar medel­högt och stiger sedan, ton 3 börjar lågt varpå den sjunker och sedan stiger och ton 4 börjar högt och faller sedan.) Orden skrivs med tecken som tydligt skiljer sig från varandra.

Läs mer
  •         The psychology of music, andra upplagan, red. Diana Deutsch, Elsevier, 1999.
  •         The enigma of absolute pitch. Diana Deutsch i tidskriften Acoustics Today, volym 2 (2006).
  •         Musicophlila: Tales of music and the brain. Oliver Sacks. Knopf (2007).
  •         Newborns’ cry melody is shaped by their native language. Birgit Mampe med flera i tidskriften Current Biology, volym 19 (2009).
  •         Perfect pitch: Language wins out over genetics. Diana Deutsch med flera: www.acoustics.org/press/157th/deutsch.html
  •         The speech-to-song illusion. Diana Deutsch med flera: www.acoustics.org/press/156th/deutsch.html
Publicerad i nummer: 
December 2011