expand_lessAPRI WIDGET

Emozioni e Machine Learning: decodificare le espressioni emotive del volto tramite App

Feffer, Rudovic e Picard, ricercatori del Media Lab del Massachusetts Institute of Technology (MIT) hanno sviluppato un modello di Machine Learning che consente di personalizzare in modo rapido ed efficace l’analisi e l’interpretazione delle emozioni umane come farebbero spontaneamente le persone tra loro.

Di Enrica Gaetano

Pubblicato il 04 Set. 2018

Le nuove tecnologie, si tratti di App, robot o semplici computer, stanno diventando sempre più efficaci anche in quei domini che fanno capo all’uomo e alla propria umanità, tra cui la capacità di riconoscere le proprie emozioni.

 

Feffer, Rudovic e Picard, ricercatori del Media Lab del Massachusetts Institute of Technology (MIT) hanno sviluppato un modello di Machine Learning che consente di personalizzare in modo rapido ed efficace l’analisi e l’interpretazione delle emozioni umane come farebbero spontaneamente le persone umane tra di loro, modello recentemente presentato all’International Conference on Machine Learning and Data Mining in Pattern Recognition.

L’importanza dei nuovi sistemi di Machine Learning nell’ambito della salute mentale

Recentemente i sistemi di Machine Learning e le applicazioni nate all’interno del campo definito “affective computing” stanno sviluppando una crescente popolarità, soprattutto nell’ambito delle tecnologie, della robotica e dei computer in quanto essi sono in grado di analizzare, interpretare e decodificare una vasta e differenziata quantità di dati.

L’ambito dell’assistenza sanitaria e della salute mentale è interessata in particolare a poter usufruire e sfruttare tali sistemi tecnologici per monitorare lo stato di benessere delle persone, rendere le diagnosi più affidabili e rispondere alle necessità degli individui con specifici disturbi in modo personalizzato e accurato. Ne è un esempio, nell’ambito dell’autismo, il robot NEO (Rudovic, Lee, Schuller, Picard, et al., 2018).

La ricerca del MIT: perchè è importante riconoscere le proprie emozioni?

L’idea che ha portato alla realizzazione dello studio del MIT riguarda la possibilità di utilizzare i nuovi sistemi di Machine Learning per percepire e comprendere in modo efficace la metrica emotiva umana.

In questo modo i ricercatori ritengono di poter essere d’aiuto alle persone offrendo loro una corretta analisi delle proprie emozioni e guidandoli di conseguenza nell’evitare di mettere in atto comportamenti che potrebbero peggiorare il proprio stato emotivo, influenzandoli piuttosto ad agire in modo da ricercare il proprio benessere. Un esempio di ciò sono le nuove applicazioni sviluppate per richiamare i giovani a rischio di dipendenza da smartphone, che si basano sul calcolo delle ore giornaliere spese dai giovani sul dispositivo (Mussi, 2018).

Ancora, con l’avvento di nuove e potenti funzionalità di Machine Learning per dispositivi mobile, è oggi possibile eseguire l’analisi delle emozioni tramite le videocamere dello smartphone. Pertanto sarebbe possibile programmare un’applicazione in grado di rilevare in modo efficace le emozioni di un utente e raccomandargli strategie per affrontare le emozioni negative, monitorare il suo umore o tentare attivamente di migliorarlo (Feffer, Rudovic, Picard, 2018).

Un modello di Machine Learning per riconoscere le espressioni facciali correlate alle emozioni

I ricercatori del MIT Media Lab hanno dunque sviluppato un modello di Machine Learning in grado di catturare le piccole variazioni nell’espressione dei volti per valutare più efficacemente l’umore e lo stato emotivo delle persone.

Per la realizzazione di questo modello sono state utilizzate migliaia di immagini emotigene di volti, aggiornando anche i vecchi modelli computazionali che non riuscivano a cogliere le mille sfaccettature delle espressioni umane che dipendono da numerose variabili (ad esempio: la quantità di sonno, il momento della giornata in cui si trova una persona, il livello di familiarità che si ha con un partner con cui si è intrapresa una conversazione, la modalità tutta personale di esprimere rabbia, gioia, tristezza).

L’idea dei ricercatori del MIT è stata di ottimizzare le attuali tecnologie di “affective computing” rendendole più accurate e adattabili ad un numero sempre maggiore di popolazioni tra di loro estremamente diversificate per cultura e modalità di espressione delle emozioni.

Questo non è uno strumento intrusivo per monitorare il nostro umore, l’intento è quello di rendere ancora più sociali i nostri sistemi di intelligenza robotica, consentendo loro di rispondere in modo più naturale alle nostre emozioni e alle nostre variazioni di umore come farebbe una persona – afferma Rudovic, ricercatrice del MIT, co-autore della ricerca e dello studio presentato

Nel far questo, i ricercatori hanno combinato insieme la tecnica definita “mixture of experts” (MoE) con tecniche di personalizzazione per estrarre dati dalle espressioni facciali di singoli individui contenuti nel database RECOLA.

I MoEs, un numero di modelli di network neurali, definiti “esperti”, sono stati addestrati a specializzarsi in un compito di elaborazione dei dati estratti per produrre un unico output. Al contempo i ricercatori hanno incorporato ad essi una rete di controllo in grado di calcolare le probabilità dell’ “esperto” di rilevare uno specifico stato d’animo: in sostanza il controllo è stato in grado di fornire l’ “esperto” migliore per quell’immagine emotigena presa in analisi.

Ad ogni “esperto” sono stati sottoposti video di 18 individui contenuti nel pubblico database RECOLA.

Il modello combinato utilizzato in questo studio ha tracciato le espressioni facciali per ogni individuo a partire da singoli fotogrammi, in base al livello di valenza (piacevole vs spiacevole) e arousal (attivazione emotiva) comunemente utilizzati per codificare i diversi stati emotivi.

Separatamente, per valutare il grado di affidabilità, le analisi ottenute sono state sottoposte a sei esperti professionisti per accertare la corretta valenza e arousal.

Sviluppi futuri

L’applicazione futura secondo gli autori sarà quella di addestrare modelli di “affective computing” ad identificare in modo sempre più naturale anche le piccole variazioni nelle espressioni del volto e di farlo in diversi contesti, in modo giornaliero, per poter massimizzare gli effetti dei sistemi di Machine Learning per la salute mentale.

Ci stiamo avvicinando a sistemi che possono analizzare le immagini dei volti di persone reali e decodificarle su scale da molto positive a molto negative, da molto attive a molto passive; i segni emotivi di una persona non sono gli stessi di un’altra e pertanto un sistema di riconoscimento delle emozioni personalizzato sarà il più efficace e soddisfacente, maggiormente in grado di aggregare più giudizi insieme grazie alla rete combinata, anziché utilizzare un unico “super esperto – dichiara Roddy Cowie, professore emerito di psicologia alla Queen’s university di Belfast e studioso di affective computing.

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
CONSIGLIATO DALLA REDAZIONE
FaceReader e la valutazione delle emozioni attraverso la lettura delle espressioni del volto
FaceReader e la valutazione delle emozioni attraverso la lettura delle espressioni del volto

L'innovativo Facereader, tra gli strumenti di misura oggettivi delle emozioni, sembra essere quello più affidabile nella lettura delle espressioni visive.

ARTICOLI CORRELATI
Neuroni specchio: la chiave per comprendere l’empatia e l’imitazione

I neuroni specchio svolgono un ruolo cruciale, consentendo di imitare azioni, comprendere gli stati mentali altrui e formare legami sociali

Empatia: la componente cognitiva e la componente affettiva
Due componenti dell’empatia: empatia cognitiva ed affettiva

Nelle prime manifestazioni di empatia è più rilevante la dimensione affettiva, poi acquisisce importanza anche quella cognitiva fino a una fusione delle due

WordPress Ads
cancel