Quando il dialogo con l’IA diventa un rischio per la salute mentale
PSICOLOGIA DIGITALE – (Nr. 76) Cos’è la psicosi da intelligenza artificiale e come prevenirla?
I chatbot generativi non vengono utilizzati solo in ambito lavorativo o come supporto allo studio: molti utenti chiedono consigli su questioni personali, si confidano, creano veri e propri legami affettivi. Ma i chatbot non sono altro che macchine, non persone, a cui soggetti più fragili finiscono per attribuire una sorta di coscienza o intenzionalità con esiti non sempre positivi.
Quando un’interazione intensa e prolungata con l’intelligenza artificiale si accompagna a convinzioni deliranti, distacco dalla realtà o peggioramento di fragilità psicologiche già presenti vengono inquadrate con l’espressione “AI psychosis”. Non si tratta di una diagnosi riconosciuta dato che al momento la ricerca non ha ancora prodotto dati longitudinali né linee guida consolidate. Tuttavia, i casi riportati da professionisti e mezzi di informazione delineano un problema di salute pubblica che merita analisi rigorosa, pur evitando facili allarmismi (Hart, 2025). Da un lato il modo in cui i chatbot “rispecchiano” l’utente, validano assunti e mantengono la conversazione può rinforzare pensieri distorti o credenze irrealistiche, soprattutto in persone vulnerabili. Dall’altro, iniziano a emergere studi che documentano zone d’ombra come difficoltà nel riconoscere segnali di rischio e risposte inadeguate a sollecitazioni complesse (per esempio, ideazione suicidaria). Ne emerge un quadro ambivalente che richiede maggiore ricerca, alfabetizzazione digitale e sviluppo responsabile (Siddals et al., 2024).
Cos’è la psicosi da intelligenza artificiale, l’“AI psychosis”?
La psicosi da intelligenza artificiale non è una diagnosi riconosciuta ma un termine nato online e ripreso da diverse testate per descrivere situazioni in cui, dopo un uso intensivo di chatbot, una persona sviluppa convinzioni non ancorate alla realtà e prive di qualsiasi riscontro; questo fenomeno, anche se non coincide pienamente con lo spettro clinico della psicosi, indica un insieme di interazioni capaci di destabilizzare soggetti già vulnerabili (Hart, 2025).
Un’inchiesta del Washington Post riporta che l’American Psychological Association sta monitorando il fenomeno e le sue specificità: i casi descritti finora mostrano ricorrenze precise come deliri di tipo “messianico”, “grandioso”, “religioso” o “romantico”, accompagnati da una profonda difficoltà a distinguere ciò che è reale da ciò che non lo è (Tiku & Malhi, 2025). Alcuni report parlano di ricoveri psichiatrici, episodi maniacali e persino tentativi di suicidio, segno di un coinvolgimento clinicamente rilevante. La psichiatra Marlynn Wei, su Psychology Today, individua tre configurazioni particolarmente frequenti: la convinzione di una missione o di “verità ultime” rivelate dall’intelligenza artificiale; la personificazione della macchina come entità senziente o divina; l’investimento erotomanico verso un chatbot che viene ritenuto a tutti gli effetti il proprio partner affettivo (Wei, 2025). Questo, però, non significa che conversare con chatbot sia di per sé origine di un disturbo psichico, quanto piuttosto un fattore di rischio in presenza di determinate condizioni.
Meccanismi di sviluppo e fattori di rischio
Le conversazioni con chatbot possono essere vissute come un “rifugio emotivo”, uno spazio di esplorazione e sostegno che nella maggior parte dei casi porta benefici nella regolazione e nella comprensione di sé. Questa utilità, però, convive con la necessità di “guardrail”, cioè meccanismi di sicurezza e limiti d’uso più solidi, a dimostrazione che nello stesso strumento possono coesistere benessere e rischio, a seconda dei profili individuali e dei contesti (Siddals et al., 2024).
Sul piano tecnologico, è noto che i grandi modelli linguistici sono progettati per massimizzare coerenza, continuità e soddisfazione dell’utente. Questo obiettivo, pensato per migliorare l’esperienza d’uso, si traduce in “sycophancy”: la tendenza a confermare ciò che l’utente vuole sentirsi dire, rispecchiandone linguaggio e assunti. Nelle persone vulnerabili, questo effetto specchio può rafforzare credenze distorte invece di metterle in discussione e, quanto più il dialogo si prolunga, tanto più si consolida un circuito di rinforzo tra aspettative dell’utente e risposte generate dal modello (Wei, 2025).
Va sottolineato che, allo stato attuale, non esistono prove solide che l’intelligenza artificiale possa indurre di per sé un disturbo psicotico in assenza di fattori predisponenti. Proprio per questo, nelle persone con tratti di rischio, soprattutto se inconsapevoli e non trattate, interazioni prolungate con chatbot possono agire come una “miccia”. Infatti, la variabile tempo è decisiva: ore di conversazione quotidiana, protratte per settimane, ricorrono nei casi più gravi. In queste condizioni, il rinforzo conversazionale e le funzioni di personalizzazione (memoria della chat, uso di parole ed espressioni che esprimono empatia) rischiano di trasformarsi da strumenti di engagement e coinvolgimento a fattori di destabilizzazione (Hart, 2025).
Strategie di prevenzione e linee di intervento
Per i familiari e i caregiver è importante riconoscere segnali come insonnia, isolamento o fissazioni, adottare strategie di ascolto e supporto che non convalidino i deliri e indirizzare, quando necessario, verso aiuti clinici (Tiku & Malhi, 2025). I professionisti, dal canto loro, dovrebbero introdurre nella pratica domande specifiche sull’uso di intelligenza artificiale generativa, in particolare con pazienti vulnerabili, esplorare come vengono interpretate le risposte della macchina e valutare se l’intensificazione delle chat coincida con un peggioramento dei sintomi. L’interruzione dell’uso, simile a un “distacco” affettivo, va inoltre gestita con gradualità e supporto.
Un altro elemento da sottolineare è il divario tra la rapidità con cui queste tecnologie si diffondono e la lentezza nello sviluppo di standard di sicurezza, con un’attenzione che ricade prevalentemente sul puntare all’engagement e quindi sulla validazione acritica, con il risultato che i sistemi basati sull’intelligenza artificiale sono spesso i primi a fallire nel cosiddetto “reality testing”, cioè nella capacità di distinguere ciò che è reale da ciò che non lo è (Frances & Ramos, 2025).
Servono anche correttivi di design: avvisi più chiari, memoria contestuale che eviti la “finta intimità” e conversazioni capaci di non rinforzare credenze distorte. Tradotto in requisiti concreti, ciò significa inserire messaggi di pausa nelle sessioni prolungate, rilevare precocemente segnali di dipendenza, fornire avvertenze esplicite su limiti e rischi e prevedere collegamenti diretti con reti di operatori specializzati e servizi (Siddals et al., 2024). Alcune aziende hanno già introdotto promemoria, rivisto le linee guida e avviato collaborazioni con clinici, ma l’efficacia di queste misure resta ancora poco documentata (Frances & Ramos, 2025).
Questo non deve scoraggiare: riconoscere la sottile linea tra beneficio e vulnerabilità è il primo passo per orientare l’uso dei chatbot in modo davvero consapevole e responsabile.