Evoluzione dell’intelligenza artificiale in ambito psicoterapeutico
La diffusione delle tecnologie di intelligenza artificiale (IA) e dei sistemi conversazionali (chatbot) nella pratica clinica segna un’evoluzione promettente e multidimensionale della tecnologia applicata alla salute mentale. Un utilizzo continuativo di tali strumenti in psicoterapia, sia come integrazione che come mezzo principale, comporterebbe un cambiamento significativo nelle modalità di accesso e fruizione dei servizi di supporto psicologico.
In particolare, si è diffuso l’uso di chatbot come strumento integrativo nei percorsi psicoterapeutici: queste forme di intelligenza artificiale garantiscono un intervento immediato e continuativo, spesso più accessibile rispetto alle modalità tradizionali (AlMakinah et al., 2024). Tuttavia, il loro impiego solleva diversi interrogativi, sia rispetto alla reale capacità dei chatbot di sostituire la figura del terapeuta, sia in merito alle implicazioni etiche legate a queste modalità di erogazione del supporto psicologico (Rahsepar Meadi et al., 2025).
L’intelligenza artificiale nei contesti terapeutici: applicazioni e vantaggi
Il primo esempio di sistema conversazionale applicato alla pratica clinica risale agli anni Sessanta, con il chatbot ELIZA, che simulava la relazione terapeutica tramite risposte pre-programmate e stereotipate. Negli anni successivi, lo sviluppo di algoritmi basati su apprendimento automatico (deep learning) ed elaborazione del linguaggio naturale (Natural Language Processing) ha reso possibile un’interazione sempre più naturale e personalizzata tra chatbot e utente (Siddals et al., 2024).
Una meta-analisi condotta da Zhong e colleghi (2024) ha evidenziato l’efficacia a breve termine degli interventi terapeutici elargiti tramite intelligenza artificiale. È stata osservata una riduzione significativa della sintomatologia ansiosa e depressiva nei gruppi sperimentali, i quali sono stati sottoposti a percorsi terapeutici di otto settimane erogati da chatbot. Ulteriori evidenze sono emerse dall’uso di Wysa e Woebot, chatbot progettati secondo i principi della terapia cognitivo-comportamentale, i quali si sono dimostrati efficaci nel migliorare i sintomi depressivi in un campione di giovani adulti (Fitzpatrick et al., 2017).
Questi risultati rafforzano l’ipotesi secondo cui i chatbot moderni posseggano un potenziale terapeutico che, secondo alcuni autori, potrebbe arrivare a essere comparabile alle competenze di uno psicoterapeuta umano. La letteratura riporta infatti buone capacità di gestione delle componenti emozionali, sia per quanto riguarda il loro riconoscimento sia relativamente alla loro elaborazione; inoltre, i chatbot sembrano essere in grado di offrire risposte appropriate e calibrate, capaci di stimolare percorsi di autoriflessione (Fadat, 2025; Zhang & Wang, 2024). Secondo Siddals e colleghi (2024) un aspetto non trascurabile è la possibilità di basare i sistemi conversazionali sulle terapie evidence-based, come Wysa e Woebot, così da aiutare il paziente a sviluppare strategie più funzionali per la gestione del proprio disagio.
L’impiego dell’intelligenza artificiale in ambito psicologico offre notevoli vantaggi anche in termini di accessibilità e tempestività dell’intervento. I chatbot sono attivi 24 ore su 24, 7 giorni su 7, favorendo una riduzione dei tempi di attesa ed eliminando la necessità di strutture fisiche dedicate. Tali elementi li rendono strumenti particolarmente preziosi per una notevole fascia di popolazione, come chi vive in aree rurali o geograficamente isolate, chi affronta difficoltà economiche o chi, nell’accedere a una psicoterapia tradizionale, incontrerebbe barriere culturali o linguistiche (Yasukawa et al., 2023; AlMakinah et al., 2024).
La percezione di anonimato trasmessa da questi strumenti è un ulteriore punto di forza: i chatbot danno la possibilità di condividere vissuti traumatici e pensieri negativi senza doversi preoccupare del giudizio altrui, consentendo così all’utente di comunicare in maniera spontanea e autentica (Rahsepar Meadi et al., 2025).
In letteratura viene evidenziata anche l’influenza positiva dell’intelligenza artificiale sull’aderenza terapeutica: integrare chatbot a percorsi di e-therapy (terapia online) massimizza il completamento di esercizi e compiti assegnati dal terapeuta tra una seduta e l’altra (Yasukawa et al., 2023). In questa prospettiva, l’intelligenza artificiale funge da valido supporto digitale alla terapia, contribuendo a migliorare la continuità del percorso.
Criticità strutturali ed etiche nell’uso clinico dei chatbot
Tuttavia, come sottolineato anche da AlMakinah e colleghi (2024), questi strumenti non sono progettati per affrontare in autonomia condizioni cliniche complesse e non sono pensati per sostituire in toto la figura del terapeuta, bensì per integrarsi ad essa in un sistema di supporto più ampio. L’intelligenza artificiale è concepita come risorsa complementare, con funzione di sostegno immediato tra una seduta e l’altra, o di primo accesso temporaneo a percorsi psicologici in cui l’assistenza tradizionale non è disponibile. Nonostante le potenzialità, è fondamentale ricordare che l’uso clinico di tali tecnologie non è ancora soggetto a regolamentazioni da parte di enti sanitari ufficiali come la Food and Drug Administration (APA, 2023).
Sebbene i vantaggi dell’impiego di intelligenza artificiale in contesti clinici siano molteplici, è necessario esaminarne in modo critico anche i limiti: i rischi e le implicazioni etiche che ne derivano sono aspetti da considerare con cautela, affinché uno strumento concepito per aiutare non diventi, inavvertitamente, un ulteriore fattore di rischio.
In primo luogo, emerge una questione di tipo strutturale: i chatbot sono privi di consapevolezza emotiva e non possiedono una comprensione autentica dell’esperienza umana. Come riportato da Siddals e colleghi (2024), sebbene in grado di riprodurre espressioni empatiche o comportamenti terapeutici, questi sistemi non provano emozioni né sanno costruire una relazione terapeutica autentica, elementi indispensabili nei percorsi clinici.
Un secondo aspetto strutturale delicato è quello che concerne la protezione dei dati personali condivisi con l’intelligenza artificiale. In mancanza di meccanismi di sicurezza rigorosi, tali dati potrebbero essere raccolti, conservati e utilizzati impropriamente, violando il diritto alla privacy (Upheal, 2024). Anche se protette, il semplice fatto che informazioni intime e sensibili vengano trasmesse attraverso reti digitali le rende vulnerabili.
Inoltre, come riportato da Gaonkar (2023), dal momento che l’intelligenza artificiale apprende da dati storici, vi è il rischio che il sistema reiteri pregiudizi “algoritmici” legati a bias razziali, culturali o di genere. Se il chatbot perpetuasse tali distorsioni nelle interazioni con gli utenti, l’equità e l’efficacia del trattamento verrebbero compromesse.
Un altro nodo riguarda la possibilità di sviluppare un legame disfunzionale con il chatbot. L’accessibilità illimitata, le risposte istantanee, l’interazione personalizzata e la tendenza dell’intelligenza artificiale a non contraddire l’utente possono rinforzare dinamiche di isolamento sociale ed emotivo (The Guardian, 2024). Tali caratteristiche possono spingere l’utente a rifugiarsi nella relazione “sicura” con l’intelligenza artificiale, evitando il contatto diretto con la realtà e con altri esseri umani.
Infine, Rahsepar Meadi e colleghi (2025) sottolineano come l’assenza di supervisione clinica diretta possa delinearsi come potenzialmente disastrosa. Ciò riguarda in particolare i casi in cui emergono segnali di grave ideazione suicidaria, disturbi dell’umore o sintomi psicotici, che un sistema automatizzato non è in grado di riconoscere e gestire adeguatamente.
È quindi evidente la necessità di stilare delle linee guida solide, chiare ed eticamente appropriate, supportate da una costante verifica, valutazione e supervisione da parte di personale umano qualificato.
Conclusioni e direzione future
Le ricerche preliminari delineano i chatbot come strumenti validi se integrati alla terapia tradizionale. Tuttavia, le stesse evidenze individuano la necessità di sviluppare quadri normativi specifici, di affiancare all’intelligenza artificiale una supervisione costante e di promuovere sistemi trasparenti e responsabili. Solamente in questa maniera sarà possibile garantirne un funzionamento e un impiego realmente efficace e sicuro.
L’evoluzione della pratica clinica supportata dall’intelligenza artificiale dovrà dunque orientarsi verso un’integrazione equilibrata tra tecnologia e intervento umano, valorizzando le potenzialità dei chatbot senza trascurare la centralità della relazione terapeutica e della supervisione umana. In definitiva, l’obiettivo non deve essere quello di sostituire il terapeuta, ma di estenderne il raggio di azione e rendere il supporto psicologico più accessibile e adattabile alle esigenze e possibilità degli utenti.