Messaggio pubblicitario

Emozioni e Machine Learning: decodificare le espressioni emotive del volto tramite App

Feffer, Rudovic e Picard, ricercatori del Media Lab del Massachusetts Institute of Technology (MIT) hanno sviluppato un modello di Machine Learning che consente di personalizzare in modo rapido ed efficace l’analisi e l’interpretazione delle emozioni umane come farebbero spontaneamente le persone tra loro.

ID Articolo: 156939 - Pubblicato il: 04 settembre 2018
Emozioni e Machine Learning: decodificare le espressioni emotive del volto tramite App
Condividi

Le nuove tecnologie, si tratti di App, robot o semplici computer, stanno diventando sempre più efficaci anche in quei domini che fanno capo all’uomo e alla propria umanità, tra cui la capacità di riconoscere le proprie emozioni.

 

Messaggio pubblicitario Feffer, Rudovic e Picard, ricercatori del Media Lab del Massachusetts Institute of Technology (MIT) hanno sviluppato un modello di Machine Learning che consente di personalizzare in modo rapido ed efficace l’analisi e l’interpretazione delle emozioni umane come farebbero spontaneamente le persone umane tra di loro, modello recentemente presentato all’International Conference on Machine Learning and Data Mining in Pattern Recognition.

L’importanza dei nuovi sistemi di Machine Learning nell’ambito della salute mentale

Recentemente i sistemi di Machine Learning e le applicazioni nate all’interno del campo definito “affective computing” stanno sviluppando una crescente popolarità, soprattutto nell’ambito delle tecnologie, della robotica e dei computer in quanto essi sono in grado di analizzare, interpretare e decodificare una vasta e differenziata quantità di dati.

L’ambito dell’assistenza sanitaria e della salute mentale è interessata in particolare a poter usufruire e sfruttare tali sistemi tecnologici per monitorare lo stato di benessere delle persone, rendere le diagnosi più affidabili e rispondere alle necessità degli individui con specifici disturbi in modo personalizzato e accurato. Ne è un esempio, nell’ambito dell’autismo, il robot NEO (Rudovic, Lee, Schuller, Picard, et al., 2018).

La ricerca del MIT: perchè è importante riconoscere le proprie emozioni?

L’idea che ha portato alla realizzazione dello studio del MIT riguarda la possibilità di utilizzare i nuovi sistemi di Machine Learning per percepire e comprendere in modo efficace la metrica emotiva umana.

In questo modo i ricercatori ritengono di poter essere d’aiuto alle persone offrendo loro una corretta analisi delle proprie emozioni e guidandoli di conseguenza nell’evitare di mettere in atto comportamenti che potrebbero peggiorare il proprio stato emotivo, influenzandoli piuttosto ad agire in modo da ricercare il proprio benessere. Un esempio di ciò sono le nuove applicazioni sviluppate per richiamare i giovani a rischio di dipendenza da smartphone, che si basano sul calcolo delle ore giornaliere spese dai giovani sul dispositivo (Mussi, 2018).

Ancora, con l’avvento di nuove e potenti funzionalità di Machine Learning per dispositivi mobile, è oggi possibile eseguire l’analisi delle emozioni tramite le videocamere dello smartphone. Pertanto sarebbe possibile programmare un’applicazione in grado di rilevare in modo efficace le emozioni di un utente e raccomandargli strategie per affrontare le emozioni negative, monitorare il suo umore o tentare attivamente di migliorarlo (Feffer, Rudovic, Picard, 2018).

Un modello di Machine Learning per riconoscere le espressioni facciali correlate alle emozioni

I ricercatori del MIT Media Lab hanno dunque sviluppato un modello di Machine Learning in grado di catturare le piccole variazioni nell’espressione dei volti per valutare più efficacemente l’umore e lo stato emotivo delle persone.

Per la realizzazione di questo modello sono state utilizzate migliaia di immagini emotigene di volti, aggiornando anche i vecchi modelli computazionali che non riuscivano a cogliere le mille sfaccettature delle espressioni umane che dipendono da numerose variabili (ad esempio: la quantità di sonno, il momento della giornata in cui si trova una persona, il livello di familiarità che si ha con un partner con cui si è intrapresa una conversazione, la modalità tutta personale di esprimere rabbia, gioia, tristezza).

L’idea dei ricercatori del MIT è stata di ottimizzare le attuali tecnologie di “affective computing” rendendole più accurate e adattabili ad un numero sempre maggiore di popolazioni tra di loro estremamente diversificate per cultura e modalità di espressione delle emozioni.

Questo non è uno strumento intrusivo per monitorare il nostro umore, l’intento è quello di rendere ancora più sociali i nostri sistemi di intelligenza robotica, consentendo loro di rispondere in modo più naturale alle nostre emozioni e alle nostre variazioni di umore come farebbe una persona – afferma Rudovic, ricercatrice del MIT, co-autore della ricerca e dello studio presentato

Nel far questo, i ricercatori hanno combinato insieme la tecnica definita “mixture of experts” (MoE) con tecniche di personalizzazione per estrarre dati dalle espressioni facciali di singoli individui contenuti nel database RECOLA.

Messaggio pubblicitario NETWORK CLINICA I MoEs, un numero di modelli di network neurali, definiti “esperti”, sono stati addestrati a specializzarsi in un compito di elaborazione dei dati estratti per produrre un unico output. Al contempo i ricercatori hanno incorporato ad essi una rete di controllo in grado di calcolare le probabilità dell’ “esperto” di rilevare uno specifico stato d’animo: in sostanza il controllo è stato in grado di fornire l’ “esperto” migliore per quell’immagine emotigena presa in analisi.

Ad ogni “esperto” sono stati sottoposti video di 18 individui contenuti nel pubblico database RECOLA.

Il modello combinato utilizzato in questo studio ha tracciato le espressioni facciali per ogni individuo a partire da singoli fotogrammi, in base al livello di valenza (piacevole vs spiacevole) e arousal (attivazione emotiva) comunemente utilizzati per codificare i diversi stati emotivi.

Separatamente, per valutare il grado di affidabilità, le analisi ottenute sono state sottoposte a sei esperti professionisti per accertare la corretta valenza e arousal.

Sviluppi futuri

L’applicazione futura secondo gli autori sarà quella di addestrare modelli di “affective computing” ad identificare in modo sempre più naturale anche le piccole variazioni nelle espressioni del volto e di farlo in diversi contesti, in modo giornaliero, per poter massimizzare gli effetti dei sistemi di Machine Learning per la salute mentale.

Ci stiamo avvicinando a sistemi che possono analizzare le immagini dei volti di persone reali e decodificarle su scale da molto positive a molto negative, da molto attive a molto passive; i segni emotivi di una persona non sono gli stessi di un’altra e pertanto un sistema di riconoscimento delle emozioni personalizzato sarà il più efficace e soddisfacente, maggiormente in grado di aggregare più giudizi insieme grazie alla rete combinata, anziché utilizzare un unico “super esperto – dichiara Roddy Cowie, professore emerito di psicologia alla Queen’s university di Belfast e studioso di affective computing.

VOTA L'ARTICOLO
(voti: 3, media: 4,33 su 5)

Bibliografia

State of Mind © 2011-2018 Riproduzione riservata.
Condividi
Messaggio pubblicitario DEFAULT SU NETWORK FORMAZIONE
Messaggio pubblicitario NETWORK CLINICA 2 - footer right

Messaggio pubblicitario

Scritto da

Università e centri di ricerca

Categorie