
Una recente metanalisi evidenzia come la voce possa essere considerata una “faccia uditiva”, in quanto viso e voce sono utili per il riconoscimento di persone familiari, delle emozioni e della percezione del parlato.
La funzione comunicativa della voce
La comunicazione umana coinvolge complessi modelli di segnali osservati nel viso, nel corpo e nella voce (Schweinberg e Burton, 2011). Mentre la comunicazione verbale spesso assume la forma di discorsi proposizionali, volti e voci comunicano facendo inferire determinate caratteristiche dell’interlocutore al ricevente come genere, età, stato emotivo, impressioni legate al livello di competenza e altri tratti (Bruce e Young, 2012; Schweinberg et al., 2014). Quando sediamo di fronte a un uomo robusto si può immaginare una voce bassa, con delle caratteristiche differenti da quelle che può avere la voce di un’adolescente esile; eppure, può capitare di interloquire con uomini dalla voce altisonante o con donne dalla voce molto profonda.
Mentre le regioni sensibili al volto sono aree cerebrali localizzate nel sistema visivo corticale (Kanwisher, 2017), le regioni cerebrali sensibili alla voce mostrano un’estensione nella corteccia uditiva (Pernet et al., 2015; Frühholz e Belin, 2019). Dopo una prima elaborazione sensoriale nella corteccia uditiva (PAC) e nella corteccia visiva primaria (PVC), a livello neurale si vede una regione estesa della corteccia temporale mediosuperiore che modula delle risposte unimodali selettive per la voce (Pernet et al., 2015; Frühholz & Belin, 2019), mentre la face fusiform area (situata nella corteccia occipitale laterale; Kanwisher, 2017) mostra risposte unimodali selettive per i volti. Nel complesso, possiamo stupirci quando parliamo con un uomo con una voce sottile o con una ragazza con la voce profonda perché nei circuiti neurali si osserva come le zone coinvolte nella percezione della voce abbiano un grado di specificità inferiore rispetto alle zone addette alla percezione dei volti (Young et al., 2020).
La voce come faccia uditiva
Young, Frühholz e Schweinberger (2020) hanno ripreso la letteratura riguardo a ciò che può essere comunicato da voci e volti per strutturare un modello che considera le contingenze quotidiane come determinanti un sistema di comunicazione bilanciato tra mittente e destinatario. Una recente metanalisi (Schirmer, 2018) evidenzia come la voce possa essere considerata una “faccia uditiva”, in quanto viso e voce sono utili per il riconoscimento di persone familiari (attraverso l’unità di riconoscimento vocale e facciale), delle emozioni (tramite l’analisi dell’affetto vocale o facciale) e della percezione del parlato (attraverso l’analisi del discorso vocale e del non verbale espresso dalla mimica): il riconoscimento percettivo di un’identità familiare converge su rappresentazioni episodiche multimodali e informazioni semantiche specifiche dell’identità. In particolare, durante un incontro sociale, il riconoscimento dell’identità ha richieste temporali relativamente basse, in quanto l’identità di una persona viene percepita come maggiormente stabile (Haxby et al., 2000) rispetto alle emozioni che, al contrario, possono cambiare da un momento all’altro (Young, 2018).
Messaggio pubblicitario La voce viene così definita una “faccia uditiva”, in quanto questi cambiamenti hanno importanti implicazioni sociali, il che significa che gli aspetti vocali e facciali devono essere costantemente monitorati e hanno richieste temporali elevate (Young, 2018). Studi neuroscientifici suggeriscono come il riconoscimento emotivo avvenga grazie alla corteccia temporale posteriore superiore (pSTC; Young, 2018; Calder e Young, 2005; Gao et al., 2019): la magnetoencefalografia evidenzia risposte interattive a volti e voci in quest’area entro i primi 200 ms dall’inizio dello stimolo emotigeno presentato (Hagan et al., 2009; 2013). Il riconoscimento identitario avviene grazie ai lobi temporali anteriori che, se danneggiati, manifestano dei deficit neuropsicologici che portano il soggetto al mancato riconoscimento identitario di un viso familiare (prosopagnosia) o di una voce (fonagnosia; Gainotti, 2014; Cosseddu et al., 2018; Young et al., 2020). Il riconoscimento emotivo ha una complessità moderata (esistono un numero limitato di emozioni basiche, alcune espresse anche se utili a nasconderne altre; Du et al., 2014) e la cui corretta interpretazione dipende dal contesto (Russell e Fehr, 1987; Barrett et al., 2019); mentre il riconoscimento dell’identità ha una complessità più elevata, in quanto si possono riconoscere centinaia di individui familiari dalle loro facce (Jenkins et al., 2019) e si può discriminare un sostanziale numero di voci (Maguiness et al., 2018).
Dato che esiste una sovrapposizione tra la struttura delle emozioni riconosciute dai volti e dal tono della voce, un meccanismo multimodale per integrare i segnali vocali (considerando i vincoli contestuali; Sander et al., 2018) e la mimica facciale rappresenta una soluzione funzionale alle richieste comportamentali (Young et al., 2020). Le differenze, l’impatto che hanno volti e voci nella quotidianità sociale e la loro unione permettono una ricca comprensione delle proprietà alla base dell’organizzazione della comunicazione verbale e non verbale.
Consigliato dalla redazione
Come emoji e emoticon differiscono dai volti nell’esprimere emozioni
Bibliografia
- Barrett, L.F. et al. (2019). Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements. Psychological Science in the Public Interest, 20, 1–68.
- Bruce, V., & Young, A. (2012). Face perception. Psychology Press.
- Calder, A.J. and Young, A.W. (2005). Understanding the recognition of facial identity and facial expression. Nature Reviews Neuroscience, 6, 641–651.
- Cosseddu, M. et al. (2018). Multimodal face and voice recognition disorders in a case with unilateral right anterior temporal lobe atrophy. Neuropsychology, 32, 920–930.
- Du, S. et al. (2014). Compound facial expressions of emotion. Proceedings of the National Academy of Sciences of the United States of America, 111, E1454-E1462.
- Frühholz, S., & Belin, P. (2019). The science of voice perception. In The Oxford Handbook of Voice Perception (Frühholz, S., & Belin, P. eds.), 3–14. Oxford University Press.
- Gainotti, G. (2014). The neuropsychology of familiar person recognition from face and voice. Psychologica Belgica, 54, 298–309.
- Gao, C. et al. (2019). The brain basis of audio-visual affective processing: evidence from a coordinate-based activation likelihood estimation meta-analysis. Cortex, 120, 66–77.
- Hagan, C.C. et al. (2009). MEG demonstrates a supra-additive response to facial and vocal emotion in the right superior temporal sulcus. Proceedings of the National Academy of Sciences of the United States of America, 106, 20010–20015.
- Hagan, C.C. et al. (2013). Involvement of right STS in audio-visual integration for affective speech demonstrated using MEG. PLoS One, 8, e70648.
- Haxby, J.V. et al. (2000). The distributed human neural system for face perception. Trends and Cognitive Sciences, 4, 223–233.
- Jenkins, R. et al. (2019). How many faces do people know? Proceedings of The Royal Society B-Biological Sciences, 285, 20181319.
- Kanwisher, N. (2017). The quest for the FFA and where it led. Journal of Neuroscience, 37, 1056–1061.
- Maguiness, C. et al. (2018). Understanding the mechanisms of familiar voice-identity recognition in the human brain. Neuropsychologia, 116, 179–193.
- Pernet, C.R. et al. (2015). The human voice areas: Spatial organization and inter-individual variability in temporal and extratemporal cortices. NeuroImage, 119, 164–174.
- Russell, J.A. and Fehr, B. (1987). Relativity in the perception of emotion in facial expressions. The Journal of Experimental Psychology: General, 116, 223–237.
- Sander, D. et al. (2018). An appraisal-driven componential approach to the emotional brain. Emotion Review, 10, 219–231.
- Schirmer, A. (2018). Is the voice an auditory face? An ALE meta-analysis comparing vocal and facial emotion processing. Social Cognitive and Affective Neuroscience, 13, 1–13.
- Schweinberg, S.R., & Burton, A.M. (2011). Person perception 25 years after Bruce and Young (1986). British Journal of Psychology, 102, 695-974.
- Schweinberg, S.R., et al. (2014). Speaker perception. WIREs Cognitive Science, 5, 15-25.
- Young, A. W., Frühholz, S., & Schweinberger, S. R. (2020). Face and Voice Perception: Understanding Commonalities and Differences. Trends in Cognitive Sciences. doi:10.1016/j.tics.2020.02.001.
- Young, A.W. (2018). Faces, people, and the brain: the 45th Sir Frederic Bartlett Lecture Quarterly. Journal of Experimental Psychology, 71, 569–594.