European Conference on Digital Psychology – Seconda Edizione
Dopo il successo della prima edizione della conferenza sulla Psicologia Digitale organizzata dalla Sigmund Freud University di Milano nel 2021, il 21 e il 22 marzo 2024 si è tenuta la seconda edizione, che ha affrontato i più recenti temi dell’Intelligenza Artificiale (IA) nell’ambito della psicologia.
Un’occasione che ha visto la partecipazione di figure rilevanti nel panorama internazionale della Psicologia Digitale, tra cui David D. Luxton, professore del Dipartimento di Psichiatria e Scienze Comportamentali all’University of Washington School of Medicine di Seattle, esperto nella prevenzione del suicidio, della salute digitale e di tecnologie innovative nel settore sanitario.
L’Intelligenza Artificiale è stata protagonista di questa conferenza con simposi sulla sua applicazione nell’ambito della salute mentale, dell’educazione e nella diagnosi.
Di particolare rilevanza e attualità gli interventi di Kamil Yurtkan e Salman Mohammed Jiddah, del Dipartimento di Ingegneria Informatica all’Università Internazionale di Cipro, e di Andrew Schwartz, Direttore del laboratorio “Human Language Analysis Lab (HLAB)” del Dipartimento di Scienze Informatiche alla Stony Brook University di New York, sul tema dell’applicazione dell’IA per il rilevamento automatico della depressione tramite espressioni facciali e per la valutazione psicologica.
Intelligenza artificiale, espressioni facciali e diagnosi
Il prof. Kamil Yurtkan ha presentato l’intervento “Facial Expression Recognition: From Artificial Intelligence and Psychological Perspectives” (“Riconoscimento delle Espressioni Facciali: dall’Intelligenza Artificiale a Prospettive Psicologiche”) ponendo l’attenzione sulle modalità con cui l’IA può essere sfruttata per il riconoscimento di pattern emotivi.
Il riconoscimento automatico delle espressioni facciali è un campo tra l’ingegneria informatica e l’intelligenza artificiale che si concentra sullo sviluppo di algoritmi e sistemi in grado di identificare e analizzare accuratamente le espressioni facciali da immagini e video.
I suoi campi di applicazione prevedono:
- Interazione uomo-computer;
- Analisi delle emozioni;
- Ambito della salute;
- Sicurezza;
- Intrattenimento.
In questo contesto i ricercatori possono seguire tre modelli:
- Facial Acting Coding System (FACS): un sistema per codificare le espressioni facciali e i movimenti facciali tramite le unità di azione (AUs) dei muscoli facciali;
- MPEG-4 Facial Animation Parameters (FAPs): un modello facciale con 83 punti caratteristici chiamati Parametri di Definizione Facciale come sopracciglia, occhi, naso e movimenti della testa;
- Active Appearance Models (AAMs): modelli statistici che combinano le informazioni della forma e della texture per rappresentare variazioni nel volto.
Un sistema automatico di riconoscimento facciale, nel campo della psicologia, può essere impiegato per il riconoscimento di fattori legati a:
- Disturbi psicologici come la depressione, lo stress o l’autismo;
- Formazione e apprendimento come, ad esempio, il coinvolgimento degli studenti;
- Salute e terapia, come il riconoscimento di stati di dolore;
- Comunicazione non verbale, come il riconoscimento di menzogne.
Il prof. Yurtkan sottolinea l’interessante applicazione di questi sistemi nel mondo del lavoro e in particolare nella fase di selezione del personale in cui possono essere impiegate delle applicazioni per analizzare un video di presentazione del candidato per analizzarne le espressioni facciali e, ad esempio, verificare se sta mentendo o il suo grado di affidabilità.
Depressione, espressioni facciali e riconoscimento automatico
Il dott. Salman Mohammed Jiddah ha proseguito l’intervento del suo collega con la presentazione di uno studio che stanno conducendo: “Automatic Depression Detection Through Compound Facial Expressions” (“Riconoscimento Automatico della Depressione tramite Espressioni Facciali Composte”).
Il loro lavoro di ricerca mira a riconoscere stati depressivi tramite l’analisi con machine learning di immagini frontali di espressioni facciali. Hanno utilizzato un dataset preesistente (iCV-MEFED) con 32750 immagini di espressioni facciali. Il dataset usa le 7 espressioni facciali di base e ne crea un’espressione composta caratterizzata da due espressioni complementari.
Il metodo studiato si divide in due parti:
- Estrazione di caratteristiche combinando texture profonde e dati sulle unità d’azione facciale (AU) mediante reti neurali profonde,
- Classificazione delle espressioni facciali composte.
La seconda parte si concentra sul rilevamento della depressione basato sulle espressioni facciali composte identificate, associando gruppi di queste espressioni alla depressione in modo binario.
L’approccio proposto raggiunge un miglioramento della accuratezza sulle espressioni facciali composte fino al 27% di accuratezza complessiva nella classificazione multi-classe. Per il rilevamento della depressione, il sistema raggiunge fino al 90% di accuratezza.
Come sottolineato dal dott. Jiddah i risultati sono promettenti ma ci sono ancora tante sfide in questo ambito.
Intelligenza artificiale e valutazione psicologica
Il prof. Andrew Schwartz, invece, ha introdotto l’intervento “Psychological Assessment in the Era of Artificial Intelligence” (“Valutazione Psicologica nell’Era dell’Intelligenza Artificiale”).
Attualmente, le valutazioni nel settore sanitario sono prevalentemente di natura fisica o biologica. Le informazioni psicologiche sono per lo più limitate a resoconti soggettivi o questionari di bassa precisione. Negli ultimi decenni e per la prima volta nella storia umana, una parte sostanziale del nostro comportamento linguistico quotidiano viene registrata digitalmente. Con le dovute precauzioni per la privacy e la sicurezza, questo ‘fenotipo digitale’ potrebbe trasformare le valutazioni e le decisioni psicologiche nel settore sanitario.
I social media possono essere una fonte preziosa di informazioni per valutare la salute mentale degli individui: il linguaggio che usiamo nei post condivisi sulle diverse piattaforme social, analizzato tramite IA, potrebbe essere utilizzato per predire, ad esempio, la diagnosi di depressione o la futura probabilità di ricaduta nel trattamento delle dipendenze.
Intelligenza artificiale e psicologia: prospettive future
La Seconda Edizione della Conferenza Europea sulla Psicologia Digitale ha esplorato l’evoluzione dell’Intelligenza Artificiale (IA) nel campo della psicologia, mettendo in luce sia le potenzialità che le sfide.
Il Prof. Kamil Yurtkan ha evidenziato l’importanza di integrare testi e audio per una migliore rilevazione delle emozioni, nonostante le difficoltà come le limitazioni dei dati e l’influenza di fattori culturali. Inoltre, ha discusso dell’analisi delle micro-espressioni e delle occlusioni facciali, come gli occhiali e il trucco.
D’altra parte, il Prof. Andrew Schwartz ha sottolineato le limitazioni attuali nell’IA, specialmente nell’Elaborazione del Linguaggio Naturale, per modellare dati umani in maniera autentica. Ha proposto l’uso di tecniche longitudinali e di modelli multilivello per superare queste sfide, con l’obiettivo finale di sviluppare un più accurato fenotipo digitale basato sull’IA.
Entrambi gli interventi hanno posto le basi per un futuro in cui l’IA potrebbe migliorare significativamente la diagnosi e il trattamento delle malattie psicologiche, nonostante le numerose sfide tecniche e culturali da superare.