– FLASH NEWS –
Musica e linguaggio condividono origini e funzione, permettendoci di comunicare ciò che proviamo.
LEGGI ANCHE ARTICOLI SU: MUSICA
La comunicazione emotiva costituisce un aspetto delle interazioni sociali di cui facciamo esperienza ogni giorno. Ogni nostra frase o discorso veicola significati emotivi precisi e fornisce perciò ai nostri ascoltatori informazioni importanti su come ci sentiamo in un dato momento (immaginate di ascoltare la voce di vostra madre al telefono: potete capire se è triste, arrabbiata o tranquilla anche solo dalle caratteristiche puramente “acustiche” della sua voce).
LEGGI TUTTI GLI ARTICOLI SU: VOCE E COMUNICAZIONE PARAVERBALE
Esattamente come accade per il linguaggio, anche la musica è in grado di comunicare emozioni all’ascoltatore: chi di voi non ha mai definito una canzone “allegra” o “triste”?
Per quanto possa sembrare incredibile, il primo ad avanzare ipotesi su una presunta origine comune tra musica e linguaggio fu Darwin, nel 1871. Il famoso ricercatore sosteneva che questi due domini costituissero l’evoluzione di un “protolinguaggio musicale”, utilizzato dai nostri antenati per difendere il territorio, in fase di corteggiamento e infine proprio per comunicare le emozioni (Fitch, 2006). Se la teoria del “protolinguaggio” fosse vera, potremmo predire con sufficiente certezza che una persona con capacità deficitarie nell’elaborazione e nell’interpretazione della musica mostrerà difficoltà anche nel comprendere le emozioni veicolate dal linguaggio (quella che dai linguisti viene definita “prosodia emotiva”).
LEGGI ANCHE ARTICOLI SU: LINGUAGGIO E COMUNICAZIONE
A tal proposito, William Thompson, Manuela Marin e Lauren Stewart (2012) hanno condotto un recente studio al fine di testare la sensibilità alla prosodia emotiva del linguaggio parlato di soggetti affetti da amusia congenita. A causa delle anomalie cerebrali causate dal loro disturbo, i soggetti amusici hanno difficoltà a cantare con intonazione corretta, a tenere il ritmo di una canzone, a distinguere le tonalità dei suoni e a riconoscere brani senza avere il testo a disposizione (Stewart, 2011). Dal momento che il loro stato emotivo non subisce variazioni con l’ascolto di un brano, non amano particolarmente ascoltare la musica, la quale finisce raramente per far parte della loro vita quotidiana (McDonald & Stewart, 2008).
LEGGI ANCHE ARTICOLI SU. NEUROPSICOLOGIA
La loro condizione ha portato numerosi ricercatori a chiedersi se il danno fosse circoscritto solo al campo musicale: è stato così scoperto che gli amusici, incapaci di percepire le variazioni minime di intonazione tipiche della musica, sono invece in grado di distinguere le più “grossolane” variazioni di tonalità linguistica (quelle ad esempio che differenziano una domanda da una affermazione, la cosiddetta “prosodia linguistica”) (Patel, 2008; Patel, Foxton & Griffiths, 2005).
Lo studio di Thompson e colleghi ha impiegato un campione di 24 soggetti, 12 amusici e altrettanti soggetti di controllo, ad ognuno dei quali è stato fatto ascoltare un set di 96 frasi registrate dal significato “neutro” (ad esempio “Il cucchiaio è nel cassetto”). Le frasi erano state originariamente pronunciate con l’intento di comunicare sei diverse emozioni (felicità, tristezza, tenerezza, irritazione, paura e un’emozione “neutra”). Ogni partecipante doveva indicare l’emozione percepita scegliendo una tra le sei opzioni, mostrate sullo schermo di un computer.
I risultati dello studio hanno confermato l’ipotesi iniziale: i soggetti amusici risultavano meno accurati dei controlli nel distinguere le emozioni di serenità, tenerezza, irritazione e tenerezza. Ammettevano inoltre di riscontrare le stesse difficoltà nella vita di tutti i giorni, ad esempio parlando al telefono, dimostrando consapevolezza del loro problema.
Si tratta di un’importante prova empirica a supporto della teoria di Darwin: musica e linguaggio condividono origini e funzione, permettendoci di comunicare ciò che proviamo (Brown, 2000; Fitch, 2010).
LEGGI ANCHE ARTICOLI SU: VOCE E COMUNICAZIONE PARAVERBALE –
BIBLIOGRAFIA:
- Brown, S. (2000). The “musilanguage” model of music evolution. In N. L. Wallin, B. Merker, and S. Brown (Eds.), The Origins of Music (pp. 271-300). Cambridge, MA: MIT Press.
- Darwin, C. (1871). The descent of man, and selection in relation to sex. John Murray, London.
- Fitch, W. T. (2006). The biology and evolution of music: A comparative perspective. Cognition, 100, 173–215. (DOWNLOAD)
- McDonald, C., & Stewart, L. (2008). Uses and functions of music in congenital amusia. Music Perception, 25, 345–355.
- Stewart, L. (2011). Characterizing congenital amusia. Quarterly Journal of Experimental Psychology, 64, 625–638.
- Patel, A. D. (2008). Music, language, and the brain. Oxford University Press, NewYork.
- Patel, A. D., Foxton, J. M.,& Griffiths, T. D. (2005). Musically tone-deaf individuals have difficulty discriminating intonation contours extracted from speech. Brain Cognition, 59, 310–313.
- Thompson, W. F., Marin, M. M., & Stewart, L. (2012). Reduced sensitivity to emotional prosody in congenital amusia rekindles the musical protolanguage hypothesis. Proceedings of the National Academy of Sciences, 109, 19027-19032. (FULL TEXT)