expand_lessAPRI WIDGET

Il volto delle emozioni: riconoscimento automatico dell’espressione del dolore

Il sistema informatico CERT è un software in grado di leggere le espressioni facciali e risulterebbe addirittura più accurato degli esseri umani -Psicologia

Di Antonio Ascolese

Pubblicato il 01 Giu. 2015

Antonio Ascolese, OPEN SCHOOL Studi Cognitivi.

 

L’affective computing si ripropone di ottenere dei software in grado sia di esprimere le emozioni, sia di riconoscere lo stato emotivo dell’utente, adattandosi ad esso.

I progetti basati sullo sviluppo di nuove interazioni uomo-computer sono molteplici, con i più svariati obiettivi e riguardano molti ambiti, come le scienze informatiche, la psicologia, l’ergonomia, etc. (tra le più recenti: Dinakar, Picard & Lieberman, 2015; Morris, Schueller & Picard, 2015; Morris & McDuff, 2014; Ahn & Picard, 2014; McDuff et al., 2014). E’ in questo contesto di ricerca che si sviluppa l’affective computing, il cui obiettivo è quello di ottenere delle macchine in grado di interagire con l’uomo a livello emotivo.

Nello specifico, l’affective computing, si ripropone di ottenere dei software in grado sia di esprimere le emozioni, sia di riconoscere lo stato emotivo dell’utente, adattandosi ad esso, ad esempio adeguando la difficoltà del compito proposto, qualora risultasse troppo stressante per l’utente (Cohn & De la Torre, 2015; Calvo et al., 2014; Canento et al., 2012; Kolodyazhniy et al. 2011; Cohn, 2010; Sanna, 2009; Nkambou, 2006; Nayak & Turk, 2005; Limbourg & Vanderdonckt, 2004; Lisetti & Nasoz, 2002; Paternò, 2005; 2004; 1999).

Tra gli sviluppi più interessanti, con molteplici applicazioni pratiche possibili, c’è senz’altro quello di un sistema informatico in grado di leggere le espressioni facciali. Le espressioni facciali sono utilizzate dal genere umano per comunicare le proprie emozioni, le proprie intenzioni nonché il proprio stato di benessere o malessere fisico (Reed et al., 2014; Gonzalez-Sanchez et al., 2011; Ambadar et al., 2005; Stewart et al., 2003).

Grazie a tutte queste funzioni, le espressioni facciali rappresentano un potente motore in grado di regolare i comportamenti interpersonali. Per questo motivo, riuscire a rilevare e comprendere correttamente le espressioni facciali in maniera automatica è stato, per anni, un forte interesse della ricerca di base e sta diventando sempre più un focus anche della ricerca applicata, in vari settori. Ad esempio, un sistema di questo tipo, potrebbe essere usato a supporto delle macchine della verità, come controllo di sicurezza o come strumento diagnostico.

Proprio in questo ambito di studi, i ricercatori dell’Università di San Diego sono riusciti a sviluppare un software in grado di rilevare se il dolore espresso dalle persone sia autentico o falso. L’accuratezza di questo programma è risultata persino superiore alla capacità di riconoscimento di osservatori umani. Dopo che diversi programmi hanno dimostrato di saper leggere e discriminare accuratamente sfumature di sorrisi o smorfie differenti. Questo caso rappresenta la prima volta in cui un computer riesce a superare un umano nella lettura di espressioni della sua stessa specie. Secondo Matthew Turk, un professore di informatica dell’Università di Santa Barbara, questo sviluppo rappresenta come ‘[blockquote style=”1″]la ricerca confinata in laboratorio possa lasciare il passo a tecnologie più utili’[/blockquote], maggiormente collegate col mondo reale.

Rispetto all’espressione del dolore, le persone sono in genere brave a mimare il dolore, modificando le proprie espressioni per trasmettere disagio fisico. E, come mostrano gli studi, le altre persone non sono quasi mai in grado di individuare questi inganni correttamente (Kokinous et al., 2014; Krumhuber et al., 2013; Hill & Craig, 2002; Ekman, 1999).

Riuscire ad operare un’accurata valutazione delle espressioni di dolore, per poi gestirlo nel modo migliore, può avere conseguenze importanti in un’ampia gamma di disturbi e interventi di tipo terapeutico. La misurazione del dolore avviene, usualmente, in maniera del tutto soggettiva, perlopiù attraverso misure self-report, con tutti gli evidenti limiti che ne possono derivare. Questo tipo di misurazione è suscettibile di suggestioni, bias sociali, senza contare i limiti nel caso di bambini, persone con danni neurologici, etc.

In un recente studio (Bartlett et al., 2014) sono state confrontate le prestazioni di umani e computer di fronte a stimoli video di persone che esprimevano dolore, reale o simulato. I computer, riuscendo a rilevare i più sottili pattern di movimento muscolare sul volto dei soggetti, hanno evidenziato una maggior accuratezza nel riconoscimento.

ARTICOLI SU: DOLORE

Il disegno di ricerca prevedeva un protocollo standardizzato per l’induzione di dolore. Ai soggetti ripresi dal video è stato chiesto di inserire un braccio in acqua ghiacciata per un minuto (un tipo di dolore immediato, ma non dannoso, né prolungato). Agli stessi soggetti è stato chiesto di immergere un braccio in acqua tiepida, cercando di riprodurre un’espressione di dolore.
I partecipanti hanno poi guardato un minuto di video silenziosi, riuscendo a discriminare correttamente, tra dolore reale e simulato, solo la metà circa delle risposte.

Contestualmente, i ricercatori hanno formato, per circa un’ora, un nuovo gruppo di osservatori: ai partecipanti è stato chiesto di individuare dai video le espressioni di dolore reale e i ricercatori comunicavano immediatamente, di volta in volta, le risposte corrette. Successivamente i partecipanti sono stati sottoposti ad una reale prova, con altri video, mostrando come la formazione abbia inciso veramente poco sui risultati: il tasso di accuratezza si è alzato al 55%.

Dopodiché, il riconoscimento delle espressioni di dolore è stato richiesto a CERT, il software sviluppato dai ricercatori dell’Università di San Diego. Al computer sono stati sottoposti gli stessi 50 video mostrati al primo gruppo di partecipanti, quello senza formazione.

I risultati sono stati sorprendenti, in quanto il computer è riuscito ad identificare tutti i movimenti troppo fini e rapidi per essere percepiti dall’occhio umano. Quando i muscoli interessati sono gli stessi, il computer riesce a discriminare la loro velocità, intensità e durata.
Ad esempio, la durata dell’apertura della bocca varia nella condizione di dolore reale, mentre nella condizione di dolore simulato è piuttosto costante e regolare. Altri movimenti facciali individuati riguardano lo spazio tra le sopracciglia, i muscoli intorno agli occhi e quelli ai lati del naso. Il tasso di accuratezza del software è stato dell’85% circa. Queste evidenze ci dicono che esistono segnali del comportamento non verbale che il sistema percettivo umano non è in grado di rilevare o, quantomeno, di distinguere.

Il dottor Bartlett e il dottor Cohn stanno studiando come applicare questa tecnologia per il riconoscimento delle espressioni facciali all’assistenza sanitaria. In particolare, uno dei prossimi passi in questo ambito sarà quello di riuscire a rilevare l’intensità del dolore nei bambini. Di fronte a un computer sarà così possibile ottenere una stima del dolore che il bambino prova ma che non sa ancora comunicare, riuscendo così a intervenire in maniera precoce con le terapie antidolorifiche adeguate (Hoffman, 2014).

Un altro possibile utilizzo di questo sistema di riconoscimento potrebbe essere quello di supportare il medico nell’individuare il miglioramento dei pazienti in maniera più ‘oggettiva’. Allo stesso modo, si potrebbe distinguere il reale bisogno di medicinali dei pazienti più insistenti nel richiederne.
Infine, questo studio rappresenta anche l’apertura di nuovi scenari nel rapporto uomo macchina, in cui sarà sempre più probabile riuscire a programmare computer in grado di leggere, con accuratezza, anche altre espressioni facciali, non necessariamente negative, come la soddisfazione per la propria vita o altre misure finora affidate agli approcci self-report.

Ma c’è qualcosa che questo sistema di decodifica automatica delle emozioni ‘toglie’ all’esperienza emotiva? Toglie innanzitutto ‘l’elemento umano’: che fine fa la persona che prova e comunica un’emozione ad un’altra persona? Le emozioni e la loro comunicazione sono esperienze prettamente umane. Scenari in cui una macchina si inserisce in questa esperienza o, provando a fare uno sforzo di immaginazione, in cui due macchine si comunichino emozioni tra di loro, priverebbero l’emozione della sua stessa essenza. Persino l’errore di riconoscimento fa parte di questa esperienza: è un elemento della comunicazione, che è un processo opaco per definizione, in cui le intenzioni dell’altro non sempre sono univoche e immediate.

Non solo: un tale sistema di riconoscimento automatico toglie all’esperienza emotiva anche tutti gli elementi di contesto, in quanto considera unicamente il rapporto tradizionale tra azione e reazione. Che ne è dell’insegnamento della prospettiva comunicativa delle espressioni facciali presentata dall’ecologia comportamentale (Fernandez-Dols, 1999)? Secondo questo punto di vista, infatti, non ci sarebbe completa corrispondenza tra le espressioni facciali e gli stati mentali interni, nel senso che non tutto ciò che appare sul volto indica necessariamente un’esperienza interna e, allo stesso modo, non tutto ciò che un individuo prova a livello interno si manifesta sul volto.

L’ecologia comportamentale non considera le espressioni facciali come azioni pianificate o eseguite secondo un insieme astratto e universale di regole, bensì secondo le condizione del contesto di riferimento. Pertanto la produzione di una data espressione facciale dipenderebbe dalla capacità di gestione locale sia delle emozioni, sia delle condizioni contestuali da parte dell’individuo (Anolli, 2003; 2002; O’Keefe & Lambert, 1995). Questo spiegherebbe come mai la medesima emozione può suscitare espressioni facciali differenti.

 

ARTICOLO CONSIGLIATO:

Il dolore: cosa succede a livello cerebrale?

 

BIBLIOGRAFIA:

Si parla di:
Categorie
ARTICOLI CORRELATI
WordPress Ads
cancel