inTherapy

Come elicitare le emozioni tramite stimoli visivi: la costruzione di un database di dati multimediali

Un progetto di ricerca ha definito un database di stimoli visivi multimediali per elicitare degli stati emotivi e rilevare l'effettiva emozione provata.

ID Articolo: 145681 - Pubblicato il: 11 maggio 2017
Come elicitare le emozioni tramite stimoli visivi: la costruzione di un database di dati multimediali
Messaggio pubblicitario SFU 2020
Condividi

Il progetto di ricerca FIRB2012 (RBFR12VHR7) dal titolo “Interpreting emotions: a computational tool integrating facial expressions and biosignals based on shape analysis and bayesian networks” si inserisce nel filone di ricerca sullo studio delle emozioni. Il risultato finale consisterà nella costruzione di uno strumento oggettivo e quantitativo avanzato (non invasivo) utilizzabile nella pratica clinica i cui parametri siano stati selezionati in base alla loro capacità di misurare ed evidenziare differenze nella risposta emotiva di soggetti sani e nei pazienti psichiatrici.

Gaia Campanale, OPEN SCHOOL PTCR MILANO

 

Le emozioni e le difficoltà di riconoscimento delle stesse

Le emozioni sono risposte che l’individuo mette in atto per affrontare uno stimolo evocativo appropriato, attivando una valutazione cognitiva (percezione), un comportamento espressivo motorio, un’esperienza soggettiva (sentimenti), un’attivazione fisiologica e un comportamento finalizzato ad uno scopo (Plutchik, 1984).

L’abilità nel riconoscere le emozioni ha un valore evolutivo e adattivo, è una componente fondamentale per il nostro sistema di comunicazione non verbale e il nostro sistema di interazione sociale (Ekman, 1992). In alcuni casi, però, il processo di riconoscimento delle emozioni è compromesso (Adolphs, 2002), in molti soggetti psichiatrici è stata riscontrata una difficoltà nel riconoscere le emozioni.

Negli ultimi anni è stata posta particolare attenzione ai deficit nel riconoscimento delle emozioni nella schizofrenia (Lee et al., 2002), nella depressione (Surguladze et al., 2004), nei disturbi d’ansia (Weinstein, 1995; Mogg & Bradley, 2002), nel disturbo post-traumatico da stress (PTSD) (Antonini et al., 2006), nell’alessitimia (Catalano & Miragliotta, 2007), nei disturbi dello spettro autistico (Mongillo et al., 2008; Magnee et al., 2008).
In particolare in letteratura sono state rilevate problematiche riguardanti l’elaborazione emotiva in pazienti affetti da anoressia nervosa (Zucker et al. 2007; Jones et al., 2008; Harrison et al., 2010), in soggetti con disturbo ossessivo-compulsivo (Sprengelmeyer et al., 1997; Jhung et al., 2010) e in bambini con sintomatologia ansiosa, difficoltà di apprendimento e deficit affettivi (Settipani et al., 2013; Waters et al., 2010).

Vi è una esigenza sempre più crescente di identificare strumenti quantitativi avanzati per il riconoscimento e la misurazione delle emozioni.
In questo i tradizionali questionari si sono rivelati uno strumento limitato poiché non permettono di indagare correttamente il vissuto emotivo provato da pazienti con disordini mentali. Per costruzione, tale strumento può rilevare solo le sensazioni oggettive di un individuo, la compilazione può essere influenzata da fattori esterni disturbanti e non permette di fare rivelazioni in tempo reale (sono somministrati prima o dopo l’emozione esperita).
Allo stesso modo, tecniche di brain imaging per monitorare il cervello nel momento in cui si prova un’emozione (EEG, fMRI, ecc.) sono troppo invasive e difficili da applicare a pazienti psichiatrici.
Studi precedenti hanno cercato di esaminare gli stati emotivi di pazienti psichiatrici a partire da informazioni delle espressioni e dei movimenti del volto (Tremeau et al., 2005) e l’analisi delle risposte psicofisiologiche a particolari stimoli, utilizzando tecnologie meno invasive.

 

Un progetto di ricerca: la costruzione di un database di dati multimediali per elicitare le emozioni

Il progetto di ricerca FIRB2012 (RBFR12VHR7) dal titolo “Interpreting emotions: a computational tool integrating facial expressions and biosignals based on shape analysis and bayesian networks” si inserisce nel filone di ricerca sullo studio delle emozioni. Propone, all’interno della comunità scientifica internazionale, un approccio sperimentale di alto profilo scientifico, sia per quanto riguarda lo sviluppo di metodologie innovative integrate tra diverse discipline della ricerca di base, sia per quanto riguarda la possibilità di approfondire tematiche relative alla reattività emotiva in popolazioni cliniche e non cliniche.

L’obiettivo a lungo termine è di saper descrivere dettagliatamente le reazioni emotive associate a stimoli elicitanti rabbia, paura, disgusto e realizzare uno studio avanzato di soggetti con disturbi d’ansia, disturbi alimentari e tratti ossessivo-compulsivi usando un approccio integrato di tipo multi-parametrico.
Il risultato finale consisterà nella costruzione di uno strumento oggettivo e quantitativo avanzato (non invasivo) utilizzabile nella pratica clinica i cui parametri siano stati selezionati in base alla loro capacità di misurare ed evidenziare differenze nella risposta emotiva di soggetti sani e nei pazienti psichiatrici.

Messaggio pubblicitario In questo lavoro si è prefissato lo scopo di estendere e ampliare il campo di ricerca sulle emozioni, cercando delle soluzioni alternative per la tecnica di selezione di stimoli capaci di elicitare diversi stati emotivi. I database multimediali utilizzati nella ricerca nel campo delle emozioni sono archivi di documenti multimediali audio-visivi con specifici contenuti semantici ed emotivi, corredati da un set di metadati relativi alle etichette semantiche e all’emozione attesa, elicitate nel soggetto esposto allo stimolo, visivo e non.

Questi database hanno lo scopo di elicitare delle emozioni nei soggetti esposti, avere un miglior controllo sperimentale degli stimoli emotivi, incrementare la capacità di confrontare i risultati degli studi incrociati e facilitare la replicazione diretta degli studi intrapresi (Bradley & Lang, 2000).
I database multimediali sono strumenti standardizzati. Hanno una procedura uniforme per la somministrazione e questo ne consente un utilizzo più ampio in diversi ambiti di ricerca.

Hanno un contenuto strutturato e prefissato, sono corredati di istruzioni per la somministrazione e precise norme statistiche per lo scoring e l’interpretazione dei punteggi. Per questo motivo, i risultati dell’elicitazione dell’emozione possono essere misurati, replicati e validati da diversi gruppi di ricerca.
Tutti gli attuali database sono stati realizzati a partire dai due principali modelli per la rappresentazione delle emozioni: quello categoriale o quello dimensionale (Peter & Herbon, 2006).

I modelli dimensionali delle emozioni propongono che il significato affettivo di uno stimolo sia ben spiegato da un ristretto numero di dimensioni; queste sono state scelte per la loro abilità nel descrivere bene le misurazioni soggettive affettive con il minor numero di fattori possibili (Bradley & Lang, 1999).

Al contrario, i modelli categoriali delle emozioni considerano i primi poco accurati nel riflettere il sistema neurale sottostante alle risposte emozionali. Per i sostenitori di questo modello c’è un numero di emozioni universali tra le culture con basi biologiche e filogenetiche proprie (Ekman, 1992).
La maggior parte dei sostenitori di questa visione concorda nell’includere le cinque emozioni primarie.

Entrambe queste teorie possono effettivamente descrivere le emozioni in sistemi digitali, ma non sono mutualmente esclusive. Infatti, stimoli che in precedenza sono stati caratterizzati secondo una singola teoria, sono stati poi rappresentati anche nell’altra. Applicare entrambe le teorie può essere utile al fine di ottenere una definizione più completa degli stimoli affettivi.

Gli stimoli multimediali sono caratterizzati da uno specifico contenuto semantico, ovvero da etichette di termini che ne possano denotare il loro contenuto. In altre parole, è utilizzato il metodo di etichettamento mediante keyword definite al fine di descrivere l’immagine. Questo tipo di metodo può diventare molto potente se implementato nella giusta maniera, ma fino ad ora è stato utilizzato in maniera manuale e questo lo ha reso un lavoro particolarmente dispendioso e disfunzionale per quanto riguarda la soggettività nella scelta delle parole chiavi e l’ambiguità di quest’ultime a causa dell’uso di vocaboli mal costruiti o addirittura inesistenti. Ogni singolo stimolo multimediale può essere descritto con una singola parola chiave da un glossario, però, non supervisionato. Le relazioni semantiche tra i diversi concetti non sono così definite e diverse parole-chiave possono essere utilizzate per la descrizione del medesimo concetto.

Questo rappresenta un enorme difetto nel processo di recupero degli stimoli, perché una query (di ricerca) deve lessicalmente combinare le parole chiave del database e non è ottenibile una più significativa interpretazione semantica della query.
I descrittori semantici inadeguati producono tre effetti negativi che ostacolano il recupero stimoli: un basso richiamo, una bassa precisione e ad alto richiamo o, una mancata corrispondenza di vocabolario.
In questo modo i database multimediali affettivi contengono solo i dati circa gli stimoli stessi e non descrivono la semantica implicita del loro contenuto.
In sintesi, i dataset multimediali affettivi, standardizzati, offrono una pluralità di stimoli audio-visivi di qualità per i ricercatori del settore. Sono stati accuratamente costruiti e consentono misurazioni comparative valide, ma tuttavia vi sono diverse limitazioni che possono ostacolare la loro diffusione e applicazione.

All’interno del progetto Firb è stato fatto uno studio pilota (Campanale, 2014) che ha portato alla costruzione di un database di stimoli visivi (immagini) per elicitare 4 emozioni target primarie (neutra, paura, rabbia e disgusto). Questo studio è uno step cruciale dell’intero progetto Firb, perché gli stimoli scelti sono poi stati presentati nelle sessioni sperimentali.
Al fine di realizzare un database di immagini da utilizzare durante le sessioni sperimentali è stato realizzato, in collaborazione con i Sistemi Informativi dell’Università Vita-Salute San Raffaele (Ing. Cibrario), un questionario online pubblicizzato tramite i social networks e il passaparola.
Sono stati inizialmente inclusi nel questionario 80 stimoli visivi (immagini) che venivano presentati in due sessioni da 40 immagini ciascuna. Questi stimoli sono stati scelti da un’equipe di psicologi professionisti per evocare le 4 emozioni di base di interesse (neutra, rabbia, paura e disgusto).

Prima di iniziare il questionario al soggetto vengono chiesti alcuni dati anagrafici (età, sesso, nazionalità, anni di scolarità, livello massimo del titolo di studio, altri titoli di studio conseguiti, con chi vive) e viene assegnato un codice di riconoscimento per le successive analisi, solo in seguito ha inizio la valutazione degli stimoli.
Ogni immagine resta attiva nello schermo per 4 secondi e, dopo che la figura sparisce dallo schermo, al soggetto viene chiesto di:
1) indicare l’emozione percepita, scegliendo da una lista di 6 emozioni (rabbia, paura, disgusto, felicità, tristezza, neutra);
2) quantificare l’emozione provata usando una scala likert a 5 punti (1= pochissimo, 5 = moltissimo);
3) valutare le tre dimensioni di pleasure (piacere), arousal e dominanza usando il SAM (Self Assessment Manikin, Lang, 1980).

Il focus è stato posto sull’etichettamento degli stimoli selezionati.
In questo database, il campione di partecipanti che ha valutato gli stimoli visivi non è rappresentativo della popolazione sana generale. Per ovviare questo problema, si è creato il questionario online.
Infine, sono stati selezionati i 20 stimoli più regolarmente valutati, per studiare le emozioni in laboratorio durante le sessioni sperimentali. Per essere più precisi, tra i criteri di selezione degli stimoli si è considerato non solo l’accordo tra i valutatori, ma anche il contenuto e la qualità dell’immagine.

Lo scopo di queste analisi è di valutare su un campione di popolazione generale la corrispondenza tra l’emozione attesa e dichiarata e valutare come sono classificate le immagini in base alle risposte soggettive sulla scala del SAM (Lang, 1980).
Rispetto agli altri database già esistenti non si sono valutate solo le correlazioni, ma si sono impiegate tecniche multivariate, come l’analisi dei cluster e lo scaling multidimensionale, per far emergere strutture dei dati altrimenti non rilevabili e per riprodurre in modo parsimonioso la complessità delle relazioni celate nella matrice di dati.

Inoltre, a differenza di altri database che compiono le loro valutazioni utilizzando le dimensioni di pleasure e arousal, grazie a queste tecniche avanzate si sono prese in considerazione contemporaneamente tutte e tre le dimensioni del SAM, integrando anche l’informazione dataci dalla dominanza.
Il vero punto innovativo di questo lavoro è aver applicato questi metodi statistici multidimensionali alla valutazione dei SAM, solitamente analizzati tramite medie e deviazione standard. In questo modo si ha una valutazione più completa.

Dei 309 soggetti che hanno risposto al questionario online, 198 hanno completato più di metà questionario (hanno valutato almeno 40 immagini) e le loro valutazioni sono state considerate nelle analisi successive. Di questi 198, 127 sono femmine (64,1%) e 71 sono maschi (35,9%). L’età media del campione è 29,495 (DS = 8,5892), con un range che varia dai 18 ai 62 anni. In media sono state raccolte 173 valutazioni per ogni immagine, un grande numero rispetto ai database già esistenti.

 

Le analisi e i risultati dello studio

Per classificare le immagini e verificare se c’è una corrispondenza tra emozioni attese e dichiarate dal partecipante, sono state utilizzate tecniche di scaling multidimensionale per creare mappe di percezione e tecniche di cluster analysis. Sono state analizzate le risposte ai SAM (valutazione delle 3 dimensioni di pleasure, arousal e dominanza) e le risposte relative al grado con cui è stata provata l’emozione dichiarata. In particolare è stata analizzata la matrice di punteggi medi ottenuti nel SAM per ciascuna immagine.

Si è visto che la maggior concordanza si ha per le modalità di risposta “disgusto”, “paura” e “neutra” e in particolare, adottando l’interpretazione dei valori di K secondo i criteri di Landis e Koch (1977), la concordanza rispetto queste categorie di risposta è moderata.
Tutte le analisi effettuate sul campione di adulti evidenziano che i soggetti sono sostanzialmente abili a distinguere uno stimolo visivo emotivamente carico da uno neutro: il gruppo di immagine neutre è sempre ben distinto dalle restanti immagini.

Attraverso uno scaling multidimensionale sul campione totale dei soggetti adulti, si è partiti da una matrice di dati iniziali costituita dalle 80 immagini rappresentanti le 4 emozioni e le medie dei 3 SAM. Partendo dai dati raccolti è stata costruita una mappa di percezione delle immagini, sulla base della risposta soggettiva fornita dal soggetto nel SAM. In questo caso si è scelta una soluzione non metrica, richiedendo semplicemente che l’ordinamento delle distanze nella configurazione ottenuta rispecchi l’ordinamento degli indici di dissimilarità originari. Questo perché, anche se la matrice di partenza contiene dati continui (medie dei SAM), i dati di partenza sono categoriali.

Anche attraverso l’analisi dei cluster su tutto il campione è stato possibile riscontrare la stessa distribuzione delle immagini. Gli stimoli neutri tendono a formare un cluster a parte, rispetto gli altri stimoli visivi.
Inoltre, attraverso il metodo del legame medio tra gruppi, si è stati in grado di evidenziare gli outlier presenti nel campione.

Diversamente da database già esistenti IAPS (Lang et al., 1995; Lang & Greenwald, 1988), GAPED (Dan-Glauser, & Scherer, 2011) e NAPS (Marchewka, Zurawski, Jednoróg, & Grabowska, 2013), l’aspetto innovativo di questo studio consiste nell’aver valutato non solo le relazioni tra le dimensioni di Pleasure e Arousal, ma anche la dimensione della dominanza tramite tecniche multivariate quali l’analisi dei cluster e lo scaling multidimensionale. Questo tipo di indagine ha permesso di creare delle mappe di percezione, che hanno evidenziato un particolare orientamento delle immagini, separando nettamente le immagini neutre da quelle non neutre.

Messaggio pubblicitario Analizzando, invece, le due dimensioni di Pleasure e Arousal tramite scatterplot si è notata una forte correlazione positiva, evidenziando, per costruzione della scala del SAM, che alti livelli di Arousal corrispondono a bassi livelli di Pleasure, e viceversa.

Si sono eseguite le stesse analisi stratificando per sesso, esaminando l’influenza del genere nella classificazione degli stimoli.
L’importanza delle differenze tra i generi è stata documentata nei processi cognitivi come la memoria, le emozioni, e la capacità visiva (Cahill, 2006). È stato dimostrato che gli stessi stimoli visivi possono suscitare diversi livelli di eccitazione (arousal) e di valenza (pleasure) nei due diversi generi. Rispetto agli uomini, le donne reagiscono più fortemente agli stimoli con connotazione negativa.

L’analisi stratificata per il genere in questo studio, conferma questi dati, mostrando che le correlazioni tra Pleasure e Arousal sono molto più forti nel sottocampione femminile. L’indice di correlazione di Spearman tra Arousal e Pleasure per le femmine risulta pari a r = 0,72 e per i maschi r = 0,687.
Le femmine sembrano quindi essere più emotive, perché maggiormente attivate da stimoli con valenza negativa (contenuto di rabbia e paura). I maschi, al contrario, si attivano molto meno.

In linea con gli studi elettrofisiologici, le donne mostrano una maggior ampiezza dei potenziali evento-correlati per gli stimoli spiacevoli e molto “attivanti”, di quanto non facciano gli uomini (Lithari et al., 2010).
Un altro aspetto innovativo di questo progetto riguarda la scelta del modello categoriale delle emozioni, basato su un numero di emozioni universali con basi biologiche e filogenetiche proprie (Ekman, 1992).

In questo sistema di classificazione di tipo categoriale, stati emotivi diversi sono fenomeni qualitativamente distinti. Ogni stato emotivo è caratterizzato da agiti specifici, manifestazioni neurofisiologiche unitarie e corrispettivi psicologici specifici. Approcciandosi con questa mentalità categoriale, si è analizzata ogni singola emozione (valutazione soggettiva del soggetto rispondente) tramite livelli specifici di arousal, pleasure e dominanza.

VOTA L'ARTICOLO
(voti: 6, media: 4,83 su 5)

Consigliato dalla redazione

Denominare le emozioni e gli effetti benefici sul cervello

Imparare a denominare le emozioni e gli effetti benefici sul cervello

Denominare le emozioni: saper etichettare correttamente le emozioni riduce l'attività del sistema limbico e di conseguenza l'attivazione emotiva. 

Bibliografia

  • Adolphs, R. (2002). Recognizing emotion from facial expressions: Psychological and neurological mechanisms. Behavioral and Cognitive Neuroscience Review, 1, 21– 61.
  • Antonini S., Pampaloni, I., Bruscoli, M., & Pallanti, S. Psicobiologia e fenomenica del numbing e dell’emotività. NÓOς, 2006.
  • Bradley, M. M., & Lang, P. J. (1999). Measuring emotion: The Self-Assesment Manikin and the semantic differential. Journal of Behavior Therapy & Experimental Psychiatry, 25, 49-59.
  • Bradley, M. M., & Lang, P. J.: Measuring emotion: Behavior, feeling and physiology. In: Lane, R., Nadel, L. (eds.): Cognitive neuroscience of emotion. Oxford University Press, New York, 2000.
  • Cahill, L. (2006). Why sex matters for neuroscience. Nature Reviews Neuroscience, 7, 477-484.
  • Catalano, S., Blandi, P., & Miragliotta, A. La diagnosi di alessitimia nei contesti lavorativi: definizione e validazione di uno strumento, “Giornale Italiano di Medicina del Lavoro ed Ergonomia”, Supplemento B, Psicologia, vol 29, N. 3, B63- B71, 2007.
  • Campanale, G. (2014). Elicitazione delle emozioni tramite stimoli visivi: costruzione di un database e analisi statistiche. (Tesi di Laurea Magistrale in Psicologia, Università Vita-Salute San Raffaele, Milano).
  • Dan-Glauser, E. S., & Scherer, K. R. (2011). “The Geneva Affective Picture Database (GAPED): A new 730 picture database focusing on valence and normative significance,” Behavior Research Methods,43(2), 468–77.
  • de Magnée M. J., de Gelder B., van Engeland H., Kemner C. (2008). Audiovisual speech integration in pervasive developmental disorder: evidence from event-related potentials. Journal of Child Psychology and Psychiatry, 49, 995– 1000
  • Ekman, P. (1992). Facial expression of emotion: New findings, new questions. Psychological Science, 3, 34-38.
  • Ekman, P. (1992). Are there basic emotions? Psychological Review, 99, 550-553.
  • Harrison, A., Sullivan, S., Tchanturia, K., & Treasure, J. (2010). Emotional functioning in eating disorders: attentional bias, emotion recognition and emotion regulation. Psychological Medicine, 40, 1887-97.
  • Jones L., Harmer C., Cowen P., Cooper M. (2008). Emotional face processing in women with high and low levels of eating disorder related symptoms. Eating Behavior, 9, 389-397.
  • Jhung, K., Namkoong, K., Kang, J. I., Ha, R. Y., An, S. K., Kim, C. H., Kim, S. J. (2010). Perception bias of disgust in ambiguous facial expressions in obsessive – compulsive disorder. Psychiatry Research, 178, 126-131.
  • Landis, R., & Koch, G. G. (1977). The Measurement of Observer Agreement for Categorical Data, Biometrics, 1, 159-174.
  • Lang, P. J. Behavioral treatment and bio-behavioral assessment: Computer applications. In J. B. Sidowski, J. H. Johnson & T. A. Williams (Eds.), Technology in mental health care delivery systems (pp. 119-137). Norwood, NJ: Ablex, 1980.
  • Lang, P. J., Bradley, M. M., & Cuthbert, B. N. The international affective picture system (iaps): Technical manual and affective ratings. Gainesville, FL: Center for Research in Psychophysiology, University of Florida, 1995.
  • Lee, C. M., Narayanan, S., & Pieraccini, R. Combining acoustic and language information for emotion recognition. International Conference on Spoken Language Processing (ICSLP), 2002.
  • Lithari, C., Frantzidis, C. A., Papadelis, C., Vivas, A. B., Klados, M. A., Kourtidou-Papadeli, C., & Bamidis, P. D. (2010). Are females more responsive to emotional stimuli? A neurophysiological study across arousal and valence dimensions. Brain Topography, 23, 27–40.
  • Marchewka, A., Zurawski, L., Jednoróg, K., & Grabowska, A. (2013). The Nencki Affective Picture System (NAPS): Introduction to a novel, standardized, wide- range, high-quality, realistic picture database. Behavior research methods. doi10.3758/s13428-013-0379-1
  • Mogg, K., & Bradley, B. P. (2002). Selective orienting to masked threat faces in social anxiety. Behaviour Research and Therapy, 40, 1403 – 1414.
  • Mongillo, E. A., Irwin, J. R., Whalen, D. H., Klaiman, C., Carter, A. S., & Schultz, R. T. (2008). Audiovisual processing in children with and without autism spectrum disorders. Journal of Autism and Developmental Disorders, 38, 1349–1358.
  • Peter, C., & Herbon, A. (2006). Emotion representation and physiology assignments in digital systems. Interacting with Computers, 18, 139-70.
  • Plutchik, R. Emotions: A general psychoevolutionary theory. In K.R. Scherer & P. Ekman (Eds.), Approaches to emotion (pp. 197-219). Hillsdale, NJ: Lawrence Erlbaum, 1984.
  • Settipani, C. A., & Kendall P.C. (2013). Social functioning in youth with anxiety disorders: association with anxiety severity and outcomes from cognitive – behavioral therapy. Child Psychiatry Human Development, 44, 1-18.
  • Sprengelmeyer, R., Young, A.W., Pundt, I., Sprengelmeyer, A., Calder, A.J., Berrios, G. (1997). Disgust implicated in obsessive-compulsive disorder. Proceedings of the Royal Society of London-Series B. Biological Sciences, 264, 1767–1773.
  • Surguladze, S. A., Young, A. W., Senior, C., Brebion, G., Travis, M. J., & Phillips, M. L. (2004). Recognition accuracy and response bias to happy and sad facial expressions in patients with major depression. Neuropsychology, 18, 212–218.
  • Tremeau, F., Malaspina, D., Duval, F., Correa, H., Hager-Budny, M., Coin- Bariou, L., Macher, J. P., & Gorman, J. M. (2005). Facial expressiveness in patients with schizophrenia compared to depressed patients and nonpatient comparison subjects. American Journal of Psychiatry,162, 92-101.
  • Waters, A. M., Henry, J., Mogg, K., Bradley, B. P., & Pine, D. S. (2010). Attentional bias towards angry faces in childhood anxiety disorders. Journal of Behavior Therapy and Experimental Psychiatry, 41, 158-164.
  • Weinstein, A. (1995). Visual ERP’s evidence for enhanced processing of threatening information in anxious university students. Biological Psychiatry, 37, 847- 858.
  • Zucker, N. L., Losh, M., Bulik, C. M., Labar, K. S., Piven, J., Pelphrey, K. A. (2007). Anorexia nervosa and autism spectrum disorders: guided investigation of social cognitive endophenotypes. Psychological Bulletin, 133, 976–1006.
State of Mind © 2011-2021 Riproduzione riservata.
Condividi
Messaggio pubblicitario

Messaggio pubblicitario

Argomenti

Scritto da

Sono citati nel testo

Categorie

Messaggio pubblicitario