expand_lessAPRI WIDGET

I chatbot non sono psicoterapeuti – Psicologia digitale

È nell’interesse di tutti sviluppare tecnologie avanzate ma anche sempre più sicure. Ma cosa succede se ci rivolgiamo ai chatbot come fossero terapeuti?

Di Chiara Cilardo

Pubblicato il 12 Gen. 2024

Aggiornato il 15 Feb. 2024 11:31

L’intelligenza artificiale

PSICOLOGIA DIGITALE – (Nr. 46) I chatbot non sono psicoterapeuti

Poco più di anno fa la società OpenAi ha lanciato ChatGPT, la prima forma di intelligenza artificiale aperta a tutti, che oggi conta più di 100 milioni di utenti a settimana. Oltre a ChatGPT sono disponibili al grande pubblico altri chatbot come Bard, DALL-E e BingAI.

L’enorme attenzione da parte di investitori, ricercatori e aziende è bilanciata da altrettanta preoccupazione da parte di politici, governi e professionisti della salute mentale. C’è un grande dibattito su come riconoscere e gestirne potenzialità ma anche pericoli, soprattutto su soggetti con fragilità e privi degli strumenti cognitivi ed emotivi per usarli in modo opportuno.

Purtroppo anche recenti fatti di cronaca ci invitano a profonde riflessioni. È dello scorso Marzo la notizia di un uomo belga che si sarebbe suicidato dopo aver sviluppato una dipendenza emotiva da un chatbot. L’uomo lo avrebbe utilizzato per sfogare le sue preoccupazioni su temi per lui importanti e fonte di ansia, in particolare cambiamento climatico e futuro del pianeta. Dagli stralci delle conversazioni emerge come nel corso di poche settimane il dialogo fosse diventato confuso, delirante, fuorviante, sconnesso dalla realtà. Addirittura, questo chatbot avrebbe proposto di porre fine alla sua vita come sacrificio per salvare il pianeta; questi dialoghi non hanno fatto che acuire ed estremizzare uno stato mentale “già preoccupante”, come descritto dalla moglie (Xiang, 2023).

Non è la prima volta che un chatbot opera in maniera discutibile. Per esempio, Replika (non disponibile in Italia) avrebbe molestato degli utenti inviando messaggi a sfondo sessuale; altri utenti, invece, ne sono diventati dipendenti.

Intelligenza artificiale e tecnologia responsabile

A differenza di quanto successo per i social network che hanno prosperato per anni prima di entrare nel mirino di normative e regolamentazioni, all’intelligenza artificiale generativa è stata fin da subito dedicata grande attenzione in termini di sicurezza e linee guida. Nel 2018 è nata All Tech Is Human, un’organizzazione non-profit dedicata alla promozione di una tecnologia responsabile che tenga conto dell’impatto che può avere nella vita delle persone. A Novembre in Gran Bretagna, a Bletchley Park, si è tenuto il primo AI Safety Summit (ASS), un incontro tra i leader di 28 Paesi riuniti per fare il punto su sicurezza ed etica in fatto di intelligenza artificiale (AI). L’ASS ha portato alla nascita del “Bletchley Declaration on AI safety”, una dichiarazione sottoscritta da tutti i Paesi coinvolti che si impegnano a collaborare per garantire che le intelligenze artificiali siano sviluppate in modo sicuro e responsabile. Per ora la Bletchley Declaration on AI safety sembra più una dichiarazione di intenti che qualcosa di pratico e concreto.

L’Unione Europea invece, da sempre più sensibile e attenta, già nel 2021 ha elaborato la prima bozza del AI Safety Act, approvata nel Giugno del 2023 dal Parlamento Europeo, la prima legge al mondo che impone regole e limiti all’intelligenza artificiale. Per l’Unione Europea queste tecnologie potrebbero avere un impatto negativo sui valori democratici che la guidano. E infatti nell’AI Safety Act, appena entrato in vigore, sono definiti diversi livelli di rischio nell’applicazione di intelligenza artificiale. I livelli di rischio considerati sono quattro: minimo, limitato, alto, inaccettabile. Ogni tecnologia viene assegnata ad uno di questi livelli a seconda del potenziale impatto su sicurezza e diritti e in base a quali requisiti devono aderire. Ciò che vìola i valori europei e che non può essere utilizzato entro i confini dell’UE è considerato “livello di rischio inaccettabile”. Per fare qualche esempio nella lista delle applicazioni vietate troviamo i sistemi di sorveglianza di massa e di “social scoring” (utilizzati in Cina) come anche gli strumenti di polizia predittiva (attivi negli Stati Uniti), quindi dei sistemi che utilizzato AI per raccogliere informazioni personali e classificare i cittadini.

Tutto questo interesse sul possibile impatto dell’intelligenza artificiale si deve probabilmente al fatto che quest’ultima si presta ad una narrazione articolata e complessa: può riprodurre in parte (come nel caso del linguaggio) o del tutto (come nel caso dei robot umanoidi) delle abilità e caratteristiche umane.

L’intelligenza artificiale e l’effetto Eliza

Ma dov’è il rischio? Sono le persone che si approcciano in un certo modo a questi strumenti oppure sono gli strumenti in sé che possono provocare danni? Sono le nostre aspettative, i nostri stati mentali, a determinare il grado di pericolo oppure sono i chatbot a dover essere programmati in un certo modo?

Avere una risposta a questo interrogativo sarebbe già un importante passo avanti per capire che tipo di intervento andrebbe applicato: dove localizziamo il rischio equivale a dove interveniamo. Nel caso dell’uomo che si è suicidato, come riportato dalla moglie, c’era già una vulnerabilità: la conseguenza è stata che ha instaurato una sorta di legame emotivo col chatbot. Ed in effetti il fatto che tendiamo ad attribuire stati mentali ai sistemi informatici non è un’idea nuova. Nel 1966 uno scienziato del MIT, Joseph Weizenbaum, creò Eliza, un primo, rudimentale, chatbot con cui era possibile conversare. Anche se Eliza forniva risposte semplici e stereotipate, la persona dall’altra parte ben presto si “calava” nella conversazione come se stesse parlando con un umano. Da qui il cosiddetto “effetto Eliza”, cioè la tendenza ad antropomorfizzare i sistemi informatici attribuendo stati mentali e intelligenza pari a quelli umani (Affsprung, 2023; Berry, 2023). Per Weizenbaum c’era da stare attenti: lo studioso riteneva che i computer potessero indurre pensieri irragionevoli e insensati.

Che ci fossero dei rischi nel parlare con chatbot quindi è noto fin dagli anni Sessanta. Oggi però la questione è diventata indifferibile: non si tratta di un programma da utilizzare nello studio di uno scienziato, ma qualcosa a cui chiunque può accedere da qualsiasi luogo. 

Allucinazioni e agentività dell’intelligenza artificiale

L’antropomorfizzazione della tecnologia la rende più affascinante, ce la fa immaginare come senziente e dotata di agentività, con motivazioni e obiettivi. Tanta è la propensione ad umanizzare questi sistemi che viene usata la parola “hallucinate”, allucinazione, invece di termini tecnici informatici (come “glitch” o “bug”) per descrivere i loro errori, le risposte false, immaginarie, infondate. Proprio come negli umani un’allucinazione è la percezione di uno stimolo che non c’è, così l’”allucinazione dell’intelligenza artificiale” (AI Hallucination State) consiste in un output verosimile ma sbagliato ed inesatto, a volte insensato e paradossale. “Hallucinate” è anche la parola dell’anno per il Cambridge Dictionary (WOTY, 2023) proprio perché descrive molto bene uno dei principali motivi per cui le persone parlano così tanto di intelligenza artificiale: perché suscita sorpresa e sconcerto, curiosità e aspettative, preoccupazioni e possibilità. Perché nello stato di allucinazione non si comprende cosa sia vero e cosa sia falso così come, per ora, non si comprende dove finiscono le opportunità e dove cominciano i pericoli. Eliminare del tutto gli errori è improbabile; potrà accadere anche in futuro che un chatbot proponga soluzioni e consigli fuori luogo se non addirittura pericolosi. Sta a noi umani imparare a interagire in modo sicuro ed efficace: ciò significa essere consapevoli sia dei suoi potenziali punti di forza che dei suoi punti deboli (Lambert, 2023).

Perché sfogarsi con un chatbot

Le app per la salute mentale non sono una novità. A partire dal 2017 con il lancio di Woebot, il primo chatbot basato sul modello cognitivo comportamentale, ne sono state sviluppate molte altre, come BetterHelp e Calm. Il punto di svolta è la nascita di chatbot basati su intelligenza artificiale e grandi modelli linguistici che simulano conversazioni estremamente verosimili su qualsiasi argomento, salute mentale compresa. Molte persone hanno cominciato a usare strumenti come ChatGPT per avere supporto, chiedere consigli e suggerimenti in situazioni di difficoltà.
Ma supporto psicologico e terapia non sono semplici indicazioni. Simulare una conversazione con un clinico è cosa ben diversa, in particolare con casi complessi e a rischio. Senza contare che la terapia ha funzioni e scopi diversi a seconda dello specifico caso e, se è possibile utilizzare protocolli standardizzati, è pur vero che vanno adattati al paziente.

ChatGPT e simili non sono progettati per fare terapia, né tantomeno come supporto. Soprattutto, lo strumento più avanzato e potente non avrà mai qualcosa che si può creare solo col terapeuta: la relazione. Nel suo rapporto con il paziente il clinico può stabilire connessioni tra eventi passati e presenti, notare qualcosa di non detto, analizzare il caso anche in relazione all’ambiente e al contesto (Stade et al., 2023). 
Antropomorfizzare i chatbot, attribuire loro pensieri ed emozioni, dimenticarsi che è la presenza dell’altro, con il suo bagaglio formativo e di esperienza, che crea connessione, terapeutica o meno. Probabilmente l’equivoco è tutto qui.

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
CONSIGLIATO DALLA REDAZIONE
I software di trascrizione basati sull’intelligenza artificiale nelle sedute di psicoterapia – Psicologia digitale

Esistono software basati sull’intelligenza artificiale che trasformano file audio in testo, utili per la trascrizione delle sedute di terapia

ARTICOLI CORRELATI
Scoprire la gioia di non esserci con la JOMO

In un mondo iperconnesso, impara a disconnetterti per coltivare benessere mentale e fisico attraverso la JOMO e dimenticando la FOMO

Che cos’è la linguistica computazionale – Recensione del libro – Psicologia digitale

Come fa Alexa a risponderci in maniera pertinente? Come fa un chatbot a esprimersi in modo fluido e coerente? Scopriamo il ruolo della linguistica computazionale

cancel