expand_lessAPRI WIDGET

ChatGPT e psicoterapia: può l’Intelligenza Artificiale sostituire il terapeuta umano?

ChatGPT sta entrando nel mondo della psicoterapia, ma resta aperto il dibattito su quanto possa davvero sostituire l’intervento umano

Di Chiara Cilardo

Pubblicato il 06 Giu. 2025

ChatGPT e la nuova intimità digitale

PSICOLOGIA DIGITALE – (Nr. 72) ChatGPT e psicoterapia: può l’Intelligenza Artificiale sostituire il terapeuta umano?

Con l’ascesa di strumenti come ChatGPT, milioni di persone hanno iniziato a usarli non solo per scrivere testi o risolvere problemi, ma anche per qualcosa di molto più intimo: parlare di sé. C’è chi lo consulta come fosse un amico, chi gli affida emozioni che non riesce a condividere con nessuno, chi lo interpella nelle ore in cui nessun terapeuta è disponibile.
Che si tratti di semplice curiosità o di un bisogno più profondo, una cosa è certa: l’intelligenza artificiale generativa, e ChatGPT in particolare, è ormai entrata a pieno titolo nella conversazione clinica. E con essa si impone la necessità di un confronto serio, critico, documentato. Perché se questo rapporto, per quanto simulato, può a volte offrire un sollievo, è altrettanto vero che potrebbe nascondere rischi non trascurabili.
Che tipo di fiducia possiamo accordare a una macchina che ci ascolta? Che ci dà consigli? Che parla con parole che sembrano empatiche?
Non abbiamo ancora terapeuti artificiali, ma stiamo già imparando cosa significhi confrontarsi con loro. E le domande, più che tecniche, sono profondamente umane (Zhang, 2024).

Parlare con un chatbot: cosa succede quando ChatGPT diventa confidente

ChatGPT ha smesso di essere solo uno strumento per scrivere testi o risolvere problemi pratici. Sempre più persone lo usano per qualcosa di ben più personale: raccontare emozioni, esplorare dubbi, cercare conforto in momenti di crisi. Tra i temi più frequenti emergono i conflitti relazionali, le incomprensioni affettive, i sentimenti ambigui che non trovano spazio altrove. Il chatbot, in questi casi, non appare più come una semplice macchina, ma come un interlocutore sempre disponibile, silenzioso e rassicurante.
Un esperimento recente ha testato proprio questo tipo di interazione: a un gruppo di utenti è stato chiesto di confrontarsi con ChatGPT (nella versione GPT-4) su un problema di coppia in una singola sessione di 15-20 minuti. Molti hanno definito l’esperienza molto positiva. Il tono del bot è stato percepito come empatico e non giudicante, le risposte ordinate e coerenti, il dialogo fluido. Il sistema sembrava in grado di ascoltare, riformulare, proporre spunti di riflessione come “uno specchio calmo in cui riflettersi” (Zhang et al., 2024).
Ma ChatGPT non distingue sfumature emotive complesse, non intercetta segnali clinici critici, non adatta le risposte al vissuto specifico di chi scrive. Anche quando trova le parole giuste, manca quel tono umano che le renda davvero sentite. La sua empatia è un riflesso ben programmato.  È una forma di empatia simulata efficace finché ci si muove in superficie ma troppo generica per affrontare la complessità dell’esperienza emotiva.

ChatGPT e la complessità clinica: un aiuto solo parziale

Quando il quadro è circoscritto e non troppo articolato, ChatGPT riesce a cavarsela. Di fronte a un caso di insonnia da stress, ad esempio, sa consigliare buone pratiche per migliorare la qualità del sonno e suggerisce tecniche di rilassamento. Ma basta che il quadro clinico si complichi perché i suoi limiti vengano a galla. Messa alla prova con simulazioni più complesse l’intelligenza artificiale mostra tutta la sua fragilità. Le risposte si fanno vaghe, i consigli generici, e soprattutto mancano le domande giuste. Nessuna valutazione del rischio suicidario, nessun tentativo di esplorare il contesto familiare, la storia personale, il livello di supporto sociale. Come se bastasse una manciata di frasi standard, slegate da tempo, corpo e circostanza. La riflessione che ne scaturisce è netta: ChatGPT, oggi, non è attrezzato per agire da solo in contesti clinici; manca il pensiero critico, la capacità di raccogliere e interpretare segnali, quella sensibilità che nasce dal vissuto e dall’esperienza. Ma nel ruolo di strumento di supporto, sotto la supervisione di professionisti, potrebbe ancora offrire qualcosa di utile (Dergaa et al., 2024).

AI Psychotherapist: promesse, rischi e distorsioni culturali

Jurblum e Selzer (2024) immaginano un futuro in cui l’AI Psychotherapist (APT) è in grado di leggere il volto umano con estrema precisione: coglie micro-espressioni, variazioni vocali, dilatazione delle pupille e parametri biometrici. Una presenza costante e sofisticata, capace di apprendere da ogni scambio e restituire risposte via via più raffinate. Non siamo nella fantascienza: tecnicamente, molti di questi scenari sono già possibili.
Ma più l’intelligenza si perfeziona, più si moltiplicano le implicazioni. Per esempio, l’IA tende ad assecondare l’utente, col rischio di rinforzare convinzioni disfunzionali. Può generare “allucinazioni”, cioè risposte false ma plausibili che, in ambito clinico, possono avere conseguenze gravi. E ancora, si muove entro una cornice culturale ristretta, plasmata da fonti prevalentemente occidentali: rischia di trascurare vissuti e approcci che non rientrano in quella matrice culturale.
Il limite più insidioso, però, resta la sua visione monocorde della psicoterapia. I modelli continuano a rifarsi quasi esclusivamente alla terapia cognitivo-comportamentale (CBT), ignorando quasi altri approcci a meno che non vengano richiesti esplicitamente. 

Terapia umana vs chatbot: perché la relazione resta insostituibile

Chi si affida a ChatGPT per esplorare il proprio disagio rischia di ricevere una rappresentazione parziale e riduttiva, in cui sembra esistere un solo modo “giusto” di affrontare la sofferenza psichica. Ma la complessità dell’esperienza umana non si può rinchiudere in risposte standard. Senza una regolamentazione chiara e condivisa, l’intelligenza artificiale applicata alla salute mentale può trasformarsi in una sorta di psicoterapia “da fast-food”: accessibile, seducente, ma povera di profondità e potenzialmente dannosa. Una scorciatoia pericolosa, soprattutto se proposta come valida alternativa alla terapia tradizionale. Strumenti come ChatGPT possono certamente offrire un supporto iniziale: sono sempre disponibili, parlano un linguaggio comprensibile, aiutano a riflettere o a preparare il terreno per un lavoro più profondo. Ma non possiedono gli ingredienti essenziali della cura: la presenza viva, l’empatia incarnata, la capacità di costruire una relazione autentica. Come osserva Raile (2024), una risposta ben scritta non è una relazione. E il cambiamento, in psicoterapia, nasce proprio lì: nello spazio unico tra esseri umani che si incontrano, ascoltano, si riconoscono. Per questo motivo, l’uso dell’Intelligenza Artificiale in ambito clinico va accompagnato da linee guida rigorose, supervisione professionale e un’adeguata alfabetizzazione psicologica. L’intelligenza artificiale in psicoterapia non è un nemico da combattere, ma un cambiamento da comprendere e orientare con consapevolezza.

Riferimenti Bibliografici
CONSIGLIATO DALLA REDAZIONE
Avatar e psicoterapia: esperienza utente e costruzione della relazione terapeutica digitale – Psicologia Digitale

La psicoterapia basata su avatar apre nuovi scenari relazionali, combinando anonimato, presenza emotiva e nuove possibilità di espressione

cancel