Antonio Ascolese, OPEN SCHOOL Studi Cognitivi.
L’affective computing si ripropone di ottenere dei software in grado sia di esprimere le emozioni, sia di riconoscere lo stato emotivo dell’utente, adattandosi ad esso.
I progetti basati sullo sviluppo di nuove interazioni uomo-computer sono molteplici, con i più svariati obiettivi e riguardano molti ambiti, come le scienze informatiche, la psicologia, l’ergonomia, etc. (tra le più recenti: Dinakar, Picard & Lieberman, 2015; Morris, Schueller & Picard, 2015; Morris & McDuff, 2014; Ahn & Picard, 2014; McDuff et al., 2014). E’ in questo contesto di ricerca che si sviluppa l’affective computing, il cui obiettivo è quello di ottenere delle macchine in grado di interagire con l’uomo a livello emotivo.
Nello specifico, l’affective computing, si ripropone di ottenere dei software in grado sia di esprimere le emozioni, sia di riconoscere lo stato emotivo dell’utente, adattandosi ad esso, ad esempio adeguando la difficoltà del compito proposto, qualora risultasse troppo stressante per l’utente (Cohn & De la Torre, 2015; Calvo et al., 2014; Canento et al., 2012; Kolodyazhniy et al. 2011; Cohn, 2010; Sanna, 2009; Nkambou, 2006; Nayak & Turk, 2005; Limbourg & Vanderdonckt, 2004; Lisetti & Nasoz, 2002; Paternò, 2005; 2004; 1999).
Tra gli sviluppi più interessanti, con molteplici applicazioni pratiche possibili, c’è senz’altro quello di un sistema informatico in grado di leggere le espressioni facciali. Le espressioni facciali sono utilizzate dal genere umano per comunicare le proprie emozioni, le proprie intenzioni nonché il proprio stato di benessere o malessere fisico (Reed et al., 2014; Gonzalez-Sanchez et al., 2011; Ambadar et al., 2005; Stewart et al., 2003).
Grazie a tutte queste funzioni, le espressioni facciali rappresentano un potente motore in grado di regolare i comportamenti interpersonali. Per questo motivo, riuscire a rilevare e comprendere correttamente le espressioni facciali in maniera automatica è stato, per anni, un forte interesse della ricerca di base e sta diventando sempre più un focus anche della ricerca applicata, in vari settori. Ad esempio, un sistema di questo tipo, potrebbe essere usato a supporto delle macchine della verità, come controllo di sicurezza o come strumento diagnostico.
Proprio in questo ambito di studi, i ricercatori dell’Università di San Diego sono riusciti a sviluppare un software in grado di rilevare se il dolore espresso dalle persone sia autentico o falso. L’accuratezza di questo programma è risultata persino superiore alla capacità di riconoscimento di osservatori umani. Dopo che diversi programmi hanno dimostrato di saper leggere e discriminare accuratamente sfumature di sorrisi o smorfie differenti. Questo caso rappresenta la prima volta in cui un computer riesce a superare un umano nella lettura di espressioni della sua stessa specie. Secondo Matthew Turk, un professore di informatica dell’Università di Santa Barbara, questo sviluppo rappresenta come ‘[blockquote style=”1″]la ricerca confinata in laboratorio possa lasciare il passo a tecnologie più utili’[/blockquote], maggiormente collegate col mondo reale.
Rispetto all’espressione del dolore, le persone sono in genere brave a mimare il dolore, modificando le proprie espressioni per trasmettere disagio fisico. E, come mostrano gli studi, le altre persone non sono quasi mai in grado di individuare questi inganni correttamente (Kokinous et al., 2014; Krumhuber et al., 2013; Hill & Craig, 2002; Ekman, 1999).
Riuscire ad operare un’accurata valutazione delle espressioni di dolore, per poi gestirlo nel modo migliore, può avere conseguenze importanti in un’ampia gamma di disturbi e interventi di tipo terapeutico. La misurazione del dolore avviene, usualmente, in maniera del tutto soggettiva, perlopiù attraverso misure self-report, con tutti gli evidenti limiti che ne possono derivare. Questo tipo di misurazione è suscettibile di suggestioni, bias sociali, senza contare i limiti nel caso di bambini, persone con danni neurologici, etc.
In un recente studio (Bartlett et al., 2014) sono state confrontate le prestazioni di umani e computer di fronte a stimoli video di persone che esprimevano dolore, reale o simulato. I computer, riuscendo a rilevare i più sottili pattern di movimento muscolare sul volto dei soggetti, hanno evidenziato una maggior accuratezza nel riconoscimento.
Il disegno di ricerca prevedeva un protocollo standardizzato per l’induzione di dolore. Ai soggetti ripresi dal video è stato chiesto di inserire un braccio in acqua ghiacciata per un minuto (un tipo di dolore immediato, ma non dannoso, né prolungato). Agli stessi soggetti è stato chiesto di immergere un braccio in acqua tiepida, cercando di riprodurre un’espressione di dolore.
I partecipanti hanno poi guardato un minuto di video silenziosi, riuscendo a discriminare correttamente, tra dolore reale e simulato, solo la metà circa delle risposte.
Contestualmente, i ricercatori hanno formato, per circa un’ora, un nuovo gruppo di osservatori: ai partecipanti è stato chiesto di individuare dai video le espressioni di dolore reale e i ricercatori comunicavano immediatamente, di volta in volta, le risposte corrette. Successivamente i partecipanti sono stati sottoposti ad una reale prova, con altri video, mostrando come la formazione abbia inciso veramente poco sui risultati: il tasso di accuratezza si è alzato al 55%.
Dopodiché, il riconoscimento delle espressioni di dolore è stato richiesto a CERT, il software sviluppato dai ricercatori dell’Università di San Diego. Al computer sono stati sottoposti gli stessi 50 video mostrati al primo gruppo di partecipanti, quello senza formazione.
I risultati sono stati sorprendenti, in quanto il computer è riuscito ad identificare tutti i movimenti troppo fini e rapidi per essere percepiti dall’occhio umano. Quando i muscoli interessati sono gli stessi, il computer riesce a discriminare la loro velocità, intensità e durata.
Ad esempio, la durata dell’apertura della bocca varia nella condizione di dolore reale, mentre nella condizione di dolore simulato è piuttosto costante e regolare. Altri movimenti facciali individuati riguardano lo spazio tra le sopracciglia, i muscoli intorno agli occhi e quelli ai lati del naso. Il tasso di accuratezza del software è stato dell’85% circa. Queste evidenze ci dicono che esistono segnali del comportamento non verbale che il sistema percettivo umano non è in grado di rilevare o, quantomeno, di distinguere.
Il dottor Bartlett e il dottor Cohn stanno studiando come applicare questa tecnologia per il riconoscimento delle espressioni facciali all’assistenza sanitaria. In particolare, uno dei prossimi passi in questo ambito sarà quello di riuscire a rilevare l’intensità del dolore nei bambini. Di fronte a un computer sarà così possibile ottenere una stima del dolore che il bambino prova ma che non sa ancora comunicare, riuscendo così a intervenire in maniera precoce con le terapie antidolorifiche adeguate (Hoffman, 2014).
Un altro possibile utilizzo di questo sistema di riconoscimento potrebbe essere quello di supportare il medico nell’individuare il miglioramento dei pazienti in maniera più ‘oggettiva’. Allo stesso modo, si potrebbe distinguere il reale bisogno di medicinali dei pazienti più insistenti nel richiederne.
Infine, questo studio rappresenta anche l’apertura di nuovi scenari nel rapporto uomo macchina, in cui sarà sempre più probabile riuscire a programmare computer in grado di leggere, con accuratezza, anche altre espressioni facciali, non necessariamente negative, come la soddisfazione per la propria vita o altre misure finora affidate agli approcci self-report.
Ma c’è qualcosa che questo sistema di decodifica automatica delle emozioni ‘toglie’ all’esperienza emotiva? Toglie innanzitutto ‘l’elemento umano’: che fine fa la persona che prova e comunica un’emozione ad un’altra persona? Le emozioni e la loro comunicazione sono esperienze prettamente umane. Scenari in cui una macchina si inserisce in questa esperienza o, provando a fare uno sforzo di immaginazione, in cui due macchine si comunichino emozioni tra di loro, priverebbero l’emozione della sua stessa essenza. Persino l’errore di riconoscimento fa parte di questa esperienza: è un elemento della comunicazione, che è un processo opaco per definizione, in cui le intenzioni dell’altro non sempre sono univoche e immediate.
Non solo: un tale sistema di riconoscimento automatico toglie all’esperienza emotiva anche tutti gli elementi di contesto, in quanto considera unicamente il rapporto tradizionale tra azione e reazione. Che ne è dell’insegnamento della prospettiva comunicativa delle espressioni facciali presentata dall’ecologia comportamentale (Fernandez-Dols, 1999)? Secondo questo punto di vista, infatti, non ci sarebbe completa corrispondenza tra le espressioni facciali e gli stati mentali interni, nel senso che non tutto ciò che appare sul volto indica necessariamente un’esperienza interna e, allo stesso modo, non tutto ciò che un individuo prova a livello interno si manifesta sul volto.
L’ecologia comportamentale non considera le espressioni facciali come azioni pianificate o eseguite secondo un insieme astratto e universale di regole, bensì secondo le condizione del contesto di riferimento. Pertanto la produzione di una data espressione facciale dipenderebbe dalla capacità di gestione locale sia delle emozioni, sia delle condizioni contestuali da parte dell’individuo (Anolli, 2003; 2002; O’Keefe & Lambert, 1995). Questo spiegherebbe come mai la medesima emozione può suscitare espressioni facciali differenti.
ARTICOLO CONSIGLIATO:
Il dolore: cosa succede a livello cerebrale?
BIBLIOGRAFIA:
- Ahn, H. I. & Picard R. W. (2014). Measuring Affective-Cognitive Experience and Predicting Market Success. IEEE Transactions on Affective Computing. DOWNLOAD
- Ambadar, Z., Schooler, J. W. & Cohn, J. F. (2005). Deciphering the Enigmatic Face: The Importance of Facial Dynamics in Interpreting Subtle Facial Expressions. Psychological Science, 16(5), 403-410.
- Anolli, L. (2003). Significato modale e comunicazione non verbale. Giornale Italiano di Psicologia, 3, 453-484.
- Anolli, L. (ed.) (2002). Fondamenti di psicologia della comunicazione. Bologna: Il Mulino.
- Bartlett, M. S., Littlewort, G. C., Frank, M. G., Lee, K. (2014). Automatic Decoding of Facial Movements Reveals Deceptive Pain Expressions. Current Biology, 24, 738–743.
- Calvo, R. A., D’Mello, S. K., Gratch, J. & Kappas, A. (Eds.) (2014). Oxford Handbook on Affective Computing Handbook of Affective Computing. Oxford University Press.
- Canento, F., Silva, H., & Fred, A. (2012). Applicability of Multi-modal Electrophysiological Data Acquisition and Processing to Emotion Recognition. In P. Cipresso, M. Hoogendoorn, M. Klein & A. Matic (Eds.), Computing Paradigms for Mental Health. Proceedings of the 2nd International Workshop on Computing Paradigms for Mental Health MindCare.
- Cohn, J. F., & De la Torre, F. (2015). Automated face analysis for affective computing. In R. A. Calvo, S. K. D’Mello, J. Gratch & A. Kappas (Eds.), Handbook of affective computing (pp. 131-150). New York, NY: Oxford.
- Cohn, J. F. (2010). Spontaneous facial expression in a small group can be automatically measured: an initial demonstration. Behaviour Research Methods, 42(4), 1079-86.
- Dinakar, K., Picard, R, Lieberman, H. (2015). Commonsense Reasoning for Detection, Prevention, and Mitigation of Cyberbullying, Extended Abstract in International Joint Conference on Artificial Intelligence, Buenos Aires, Argentina, July 2015.
- Ekman, P. (1999). Facial Expressions. In T. Dalgleish & T. Power (Eds.), The Handbook of Cognition and Emotion. Sussex, U. K. John Wiley & Sons, Ltd.
- Fernàndez-Dols (1999), Facial expression and emotions: A situationist view. In P. Philippot, R. Feldman (Eds), The social context of non verbal behavior. Cambridge: Cambridge University Press.
- Gonzalez-Sanchez, J., Christopherson, R. M., Chavez-Echeagaray, M. E., Gibson, D. C., Atkinson, R., Burleson, W. (2011). How to Do Multimodal Detection of Affective States? Proceedings of the 2011 IEEE 11th International Conference on Advanced Learning Technologies, p.654-655, July 06-08, 2011. [doi>10.1109/ICALT.2011.206].
- Gonzalez-Sanchez, J., Chavez-Echeagaray, M. E., Atkinson, R., Burleson, W. (2011). Affective computing meets design patterns: a pattern-based model for a multimodal emotion recognition framework, Proceedings of the 16th European Conference on Pattern Languages of Programs, p.1-11, July 13-17, 2011, Irsee, Germany. [doi>10.1145/2396716.2396730].
- Hill, M. L. & Craig, K. D. (2002). Detecting deception in pain expressions: the structure of genuine and deceptive facial displays. Pain, 98 (1-2), 135–144.
- Hoffman J. (2014). Reading Pain in a Human Face. The New York Times, April, 28.
- Kokinous, J., Kotz, S. A., Tavano, A., & Schröger, E. (2014). The role of emotion in dynamic audiovisual integration of faces and voices. Social Cognition Affective Neuroscience.
- Kolodyazhniy, V., Kreibig, S. D., Gross, J. J., Roth, W. T. and Wilhelm, F. H. (2011), An affective computing approach to physiological emotion specificity: Toward subject-independent and stimulus-independent classification of film-induced emotions. Psychophysiology, 48, 908–922. [doi: 10.1111/j.1469-8986.2010.01170.x].
- Krumhuber, E., Kappas, A. & Manstead, A. S. R. (2013). Effects of dynamic aspects of facial expressions: A review. Emotion Review, 5, 41-45.
- Limbourg, Q., Vanderdonckt, J. (2004). UsiXML: A User Interface Description Language Supporting Multiple Levels of Independence. In Matera, M. & Comai, S. (Eds.), Engineering Advanced Web Applications, Rinton Press, Paramus.
- Lisetti, C. L. & Nasoz, F. (2002). MAUI: a multimodal affective user interface, Proceedings of the tenth ACM international conference on Multimedia, December 01-06, 2002, Juan-les-Pins, France. [doi>10.1145/641007.641038].
- McDuff, D., Kaliouby, R., Cohn, J. and Picard R.W. (2014). Predicting Ad Liking and Purchase Intent: Large-scale Analysis of Facial Responses to Ads. IEEE Transactions on Affective Computing. DOWNLOAD
- Morris R. R., Schueller M.S., Picard R.W. (2015). Efficacy of a Web-Based, Peer-To-Peer Cognitive Reappraisal Platform: a Randomized Controlled Trial. Journal of Medical Internet Research.
- Morris, R. R. & McDuff, D. (2014). Crowdsourcing Techniques for Affective Computing. In Calvo, R. A., D’Mello, S. K., Gratch, J., & Kappas, A. (Eds.) Handbook of Affective Computing, Oxford University Press. DOWNLOAD
- Nayak V., & Turk M. (2005). Emotional Expression in Virtual Agents Through Body Language. In G. Bebis, R. Boyle, D. Koracin & B. Parvin (Eds.), Advances in Visual Computing. First International Symposium, 3804, 313-320.
- Nkambou, R. (2006). A framework for affective intelligent tutoring systems, presented at the 7th Information Technology Based Higher Education and Training.
- O’Keefe, B. J., & Lambert, B. L. (1995). Managing the flow of ideas: A local management approach to message design. In B. R. Burleson (Ed.), Communication yearbook 18 (pp. 54-82). Thousand Oaks, CA: Sage.
- Paternò, F. (1999). Model-Based Design and Evaluation of Interactive Applications. Springer, Berlin.
- Paternò F. (2004). Interazione Uomo-Computer: Un’Introduzione. Mondo Digitale, 4. DOWNLOAD
- Paternò, F. (2005). Interacting with Computers, 17, 291–315.
- Reed, L. R., DeScioli, P., & Pinker, S. A. (2014). The Commitment Function of Angry Facial Expressions. Psychological Science, 25, 1511-1517.
- Sanna, S. (2009). Mobile computing, in A. Soro (ed.), Human Computer Interaction – Fondamenti e prospettive (pp. 253-288 ). Ed. Polimetrica.
- Stewart, B. M., Littlewort, G., Fasel, I., & Movellan, J. R. (2003). Real Time Face Detection and Facial Expression Recognition: Development and Applications to Human Computer Interaction. In Computer Vision and Pattern Recognition Workshop, 2003. CVPRW ’03. Conference on (5).