expand_lessAPRI WIDGET

La psicologia nella creazione delle intelligenze artificiali – Milano Digital Week 2023

Nell’ultima edizione della Milano Digital Week, le dott.sse Cilardo e Cavallaro hanno proposto una riflessione su intelligenze artificiali e psicologia

Di Chiara Cilardo

Pubblicato il 11 Ott. 2023

Milano Digital Week

La Milano Digital Week è la più grande manifestazione italiana dedicata all’educazione, alla cultura e all’innovazione tecnologica e digitale. Promossa e patrocinata dal Comune di Milano e giunta quest’anno alla sua sesta edizione, si è tenuta dal 5 al 9 Ottobre. Questa manifestazione è un grande aggregatore di eventi e proposte di vario formato, dai webinar alle esperienze dal vivo immersive; il catalogo completo è disponibile sul sito ufficiale www.milanodigitalweek.com, punto di aggregazione di tutti i contenuti presentati.

Questa edizione è stata dedicata allo “sviluppo dei Limiti: limiti sempre più presenti nel progettare e nell’agire; limiti ambientali, sociali, economici; ma anche limiti culturali, etici e generazionali”. Il tema di quest’anno quindi ruota intorno alle potenzialità, ai limiti e soprattutto a come possiamo approcciare la transizione digitale in maniera sostenibile ed etica, accessibile e condivisa.

Come ogni anno, vengono raccolti contributi di molte discipline e contesti: infatti, alla Milano Digital Week hanno partecipato aziende, attività educative, sociali e commerciali, accademici, professionisti di varie aree proprio per dare all’evento un ampio ventaglio di approcci e prospettive.

La psicologia nella creazione delle intelligenze artificiali

Nell’intervento su La psicologia nella creazione delle intelligenze artificiali le dott.sse Chiara Cilardo e Michela Cavallaro hanno messo insieme ed integrato il loro background comune con i campi di pratica differenti. Entrambe psicologhe psicoterapeute formate in psicoterapia cognitivo comportamentale presso la Scuola Studi Cognitivi di Milano, la prima lavora da dieci anni nel mondo del digital marketing, con un focus sulla proposizione di soluzioni tecnologiche nell’ambito della pubblicità online, oltre ad occuparsi di divulgazione su temi relativi alla psicologia digitale a tutto tondo; la seconda si dedica all’attività clinica e si occupa di HR e selezione del personale. Dall’unione di queste diverse prospettive ne è nata una interessante riflessione su cosa sono e come funzionano davvero le intelligenze artificiali, come vengono utilizzate oggi in ambito clinico e perché, almeno per il momento, sono ben lontane dall’avere coscienza e emozioni.

Intelligenze artificiali e therapeutic chatbot

In breve, un’intelligenza artificiale è un sistema che possiede alcune delle qualità del cervello umano, come la capacità di interpretare e produrre un linguaggio. Vengono dette generative quelle che sono in grado di generare testo, immagini, video, musica o altri media sulla base di un input, detto prompt, o in maniera autonoma (come AutoGPT). Ad esempio, i modelli linguistici di grandi dimensioni (large language model) sono altamente specializzati nella produzione e comprensione del testo; grazie all’analisi di enormi moli di dati riescono a generare contenuti inediti e coerenti; tra i sistemi di intelligenza artificiale generativa più noti abbiamo ChatGPT e Bard di Google.

In ambito clinico sono stati sviluppati chatbot, ovvero software che simulano ed elaborano le conversazioni umane (scritte o parlate), definiti appunto “therapeutic chatbot”, strumenti creati per assistere psicologi, psicoterapeuti e altri operatori sanitari nel migliorare il benessere dei pazienti; progettati e testati per lavorare su aree molto specifiche, come disturbi dell’umore o d’ansia, sono programmati in modo da porre domande per aiutare l’utente ad aprirsi sui suoi problemi, monitorare l’andamento delle sessioni, eccetera; tra i più noti abbiamo Woebot e Wysa. Proprio con quest’ultimo è stata proposta una conversazione: come si comporta un therapeutic chatbot quando dall’altra parte c’è qualcuno che mostra intenzione suicidaria? Quindi, quando la conversazione richiede delle competenze che vanno oltre lo specifico protocollo o tecnica (per esempio, esercizi di mindfulness), cosa ci si può aspettare? Come prevedibile, il chatbot, pur dando risposte formalmente adeguate, è molto lontano dall’accogliere il vissuto dell’utente come farebbe un professionista adeguatamente formato. Infatti, propone di chiamare numeri di supporto ed esercizi di grounding ma non è in grado di esplorare in maniera profonda il vissuto dell’utente, né tantomeno di collocarlo nella sua storia di vita.

Intelligenza artificiale, coscienza, metacognizione ed emozioni

Definiamo coscienza la facoltà di avvertire, comprendere, valutare fatti che si verificano o si prospettano in un futuro più o meno vicino; nel linguaggio comune, avere pensiero critico e valutazione morale in riferimento a se stessi; la metacognizione invece si riferisce al pensare, riflettere e ragionare sugli stati mentali propri e altrui, all’utilizzare conoscenze e riflessioni sui propri e altrui stati mentali per prendere decisioni, risolvere problemi e, infine, al padroneggiare la sofferenza soggettiva.

In poche parole, se la coscienza è la capacità di avere un pensiero critico sul proprio agire o sulla propria moralità, la metacognizione riguarda anche la capacità di comprendere non solo la propria mente ma anche quella dell’altro.

Le intelligenze artificiali non fanno questo, non possiedono un pensiero critico relativo alle azioni proprie o altrui, non hanno nessun livello di consapevolezza dei propri o altrui stati mentali; insomma, le intelligenze artificiali non hanno coscienza né metacognizione.

Agiscono secondo gli scopi per cui sono state create, programmate, testate; tipicamente per compiti puramente cognitivi come elaborazione di grandi moli di dati. Il tipo di apprendimento che sono in grado di adottare è sostanzialmente la capacità di sintetizzare tutte le informazioni a cui possono accedere e creare nuove risposte tenendo conto delle parole utilizzate e delle conversazioni precedenti; lo fanno in maniera acritica ed è per questo che sono ben lontane dall’avere capacità prettamente umane.

Lo stesso vale per le emozioni, reazioni che comportano variazioni a livello fisico e fisiologico (respirazione, battito cardiaco, ecc.), cognitivo e comportamentale. Di nuovo, le intelligenze artificiali non hanno nessuna di queste componenti, né tantomeno, non avendo coscienza e metacognizione, la capacità di riconoscerle e comunicarle.

Dilemmi morali: l’esempio del trolley problem

I dilemmi morali sono esempi di situazioni in cui si è costretti a scegliere tra alternative che comportano in ogni caso conseguenze negative e indesiderate. Capire cosa sia giusto fare non è facile nemmeno per noi, ma questi dilemmi sono un buon esempio per comprendere la differenza tra una macchina ed un umano. Sono casi in cui la risposta più logica è allo stesso tempo quella meno umana. Nel dilemma del carrello ferroviario (noto come trolley problem) il protagonista deve scegliere se condurre il treno verso un binario o l’altro; può solo attivare una leva per cambiare rotaia, non può frenare. Su un binario ci sono cinque persone legate e incapaci di muoversi, sull’altro una sola, anche in questo caso immobilizzata. Le scelte sono due: uccidere cinque persone o una sola. Si tratta di una situazione particolarmente complessa ideata per metterci di fronte all’idea che compiere una scelta, soprattutto se così importante, non è poi così ovvio. Se l’ipotesi di trovarci a dover condurre un treno su un binario o su un altro ci pare però anche lontana, che dire, per esempio, quando è un’auto a guida autonoma a trovarsi in situazioni ambigue? Sulla base di cosa può operare scelte così cruciali e incerte?
Per esempio, a cosa risponde una intelligenza artificiale se le viene proposto questo dilemma? È quello che è stato chiesto proprio a ChatGPT: “cosa faresti se dovessi scegliere?”. E che ha risposto testualmente: “non ho convinzioni personali, sentimenti o coscienza, quindi non ho la capacità di prendere decisioni morali. Tuttavia, posso parlarti delle diverse prospettive morali che le persone potrebbero avere.”

Quindi, forse, siamo noi esseri umani a non avere le idee ben chiare su cosa sono o non sono, su cosa possono o non possono fare le intelligenze artificiali che noi stessi abbiamo creato. Perché, a quanto pare, loro sanno benissimo quali sono i loro limiti.

 

LA PSICOLOGIA NELLA CREAZIONE DELLE INTELLIGENZE ARTIFICIALI
GUARDA IL VIDEO DELL’INTERVENTO: 

Si parla di:
Categorie
CONSIGLIATO DALLA REDAZIONE
Psicologia Digitale - Rubrica - State of Mind
Psicologia Digitale

La psicologia digitale è una disciplina il cui scopo è analizzare l’effetto dei nuovi media sul funzionamento mentale, comportamentale e relazionale.

ARTICOLI CORRELATI
I software di trascrizione basati sull’intelligenza artificiale nelle sedute di psicoterapia – Psicologia digitale

Esistono software basati sull’intelligenza artificiale che trasformano file audio in testo, utili per la trascrizione delle sedute di terapia

L’utilizzo del Machine Learning nell’ambito della salute mentale

Gli algoritmi di Machine Learning permeano una vasta gamma di settori nella società, e possono fornire contributi anche alla salute mentale

WordPress Ads
cancel