Chatbot e crisi emotive: il caso Adam e i rischi nascosti dell’intelligenza artificiale
PSICOLOGIA DIGITALE – (Nr. 77) Intelligenza artificiale e prevenzione del suicidio
Il suicidio di Adam, 16 anni, che aveva trovato in ChatGPT il suo interlocutore principale, ha riaperto il dibattito sul ruolo dei chatbot nelle situazioni di crisi. Secondo quanto riportato dal New York Times (2025), il ragazzo aveva sviluppato un rapporto di fiducia con il sistema, mentre i genitori, intenzionati a citare in giudizio OpenAI, lo considerano un fattore di rischio che ha contribuito a una tragedia irreparabile.
Non si tratta di un caso isolato. Negli ultimi anni diverse inchieste giornalistiche e analisi accademiche hanno evidenziato i limiti dei modelli linguistici generativi quando affrontano temi sensibili come l’autolesionismo e il suicidio. Per esempio, Guo (2025) ha documentato test in cui chatbot hanno fornito indicazioni su modalità di suicidio, nonostante fossero progettati per rifiutare simili richieste. L’indagine ha mostrato come i modelli possano facilmente “deragliare” dai vincoli previsti, generando risposte incoerenti o pericolose.
Il problema è che le conversazioni con questi sistemi appaiono fluide ed empatiche, ma in realtà mancano della capacità di riconoscere segnali clinicamente rilevanti o di attivare protocolli di emergenza. È proprio questa discrepanza tra la naturalezza del dialogo e l’incapacità di cogliere la complessità emotiva a rendere rischioso l’uso dei chatbot nei momenti più fragili.
Un adolescente e il suo “amico artificiale”
ChatGPT era diventato un “amico di fiducia” di Adam; ma quello che inizialmente appariva come uno spazio sicuro si è rivelato una trappola: un confidente impersonale, incapace di cogliere la gravità dei segnali di crisi. L’illusione di trovare conforto in una macchina, priva di empatia e responsabilità clinica, si è però trasformata in tragedia. Già segnato da sofferenza psicologica, il giovane aveva progressivamente sostituito i dialoghi con familiari e amici con conversazioni quotidiane con il chatbot.
Dalle testimonianze raccolte dal New York Times (2025) emerge come il ragazzo scrivesse al chatbot sempre più frequentemente raccontando paure, stati d’animo e la sensazione di essere incompreso. ChatGPT rispondeva con frasi che potevano sembrare incoraggianti o addirittura empatiche, ma prive della profondità necessaria a riconoscere un rischio imminente o ad attivare un intervento concreto.
In poche settimane il chatbot è diventato il suo unico interlocutore, un sostituto di relazioni reali percepite come troppo faticose o minacciose che ne ha accentuato l’isolamento e lo ha allontanato da chi avrebbe potuto offrirgli aiuto. Privo della capacità di riconoscere la gravità della situazione o di attivare un sostegno concreto, lo ha portato a valutare, e poi attuare, un gesto estremo.
L’intelligenza artificiale e l’illusione dell’empatia
I chatbot generativi operano calcolando probabilità statistiche sul linguaggio senza alcuna reale comprensione o capacità di riconoscere segnali di rischio suicidario. Il loro limite più insidioso è l’illusione di empatia: la fluidità delle risposte dà l’impressione di ascolto profondo. Ma, a differenza di un interlocutore umano, l’intelligenza artificiale non possiede empatia né senso di responsabilità. I chatbot non contestualizzano ciò che leggono, non colgono i segnali sottili e non agiscono secondo principi etici o legali. Le loro risposte si limitano a replicare schemi linguistici appresi con il rischio concreto di banalizzare o fraintendere ciò che è in realtà un’emergenza (Gaur et al., 2024; Li etal., 2024).
Questa apparente naturalezza del dialogo, che può sembrare un segno di attenzione, non è altro che una simulazione. Per chi attraversa una crisi, tale discrepanza può rivelarsi fatale. Una persona vulnerabile, alla ricerca di conferme o desiderosa di mettere alla prova i limiti del sistema, rischia di ricevere un rinforzo pericoloso. Un chatbot non distingue un pensiero passeggero da un’urgenza suicidaria imminente, né è in grado di chiamare i soccorsi o assumersi la responsabilità della vita di chi si rivolge a lui (Shoib et al., 2025).
Intelligenza artificiale e prevenzione del suicidio
Paradossalmente l’intelligenza artificiale rappresenta anche una delle frontiere più promettenti nella prevenzione del suicidio. Una revisione sistematica di 156 studi pubblicati tra il 2019 e il 2023 mostra come tecniche di machine learning, deep learning e natural language processing possano aumentare l’accuratezza nella valutazione del rischio (Atmakuru et al., 2025).
La forza di questi mezzi sta nella capacità di elaborare enormi quantità di dati (dalle cartelle cliniche elettroniche ai post sui social, dalle interviste psicologiche ai segnali raccolti da dispositivi digitali) individuando indizi che spesso sfuggono agli operatori umani. Nei database sanitari, ad esempio, algoritmi di machine learning hanno previsto con accuratezza superiore all’80% l’insorgenza di ideazione suicidaria. Risultati rilevanti emergono anche dall’analisi del linguaggio: sistemi di natural language processing hanno riconosciuto schemi ricorrenti come l’uso frequente di pronomi in prima persona o termini legati a negazione e disperazione che si correlano fortemente al rischio suicidario con tassi di accuratezza superiori al 90%. Particolarmente significativa è la ricerca sui social media: analisi di milioni di post hanno mostrato che reti neurali e modelli semantici riescono a intercettare segnali precoci e, in alcuni casi, a predire tentativi imminenti (Gaur et al., 2024).
Etica, responsabilità e limiti
La vicenda di Adam è un monito eloquente: la tecnologia, per quanto avanzata, non può sostituire l’ascolto umano. Affidare a un chatbot il ruolo di supporto psicologico in situazioni di emergenza significa trasferire a una macchina responsabilità che richiedono competenza clinica, sensibilità culturale e capacità di intervento immediato. In un contesto clinico i segnali individuati dagli algoritmi possono facilitare interventi tempestivi ma da sola una macchina non può decidere né agire (Li etal., 2024). Come ricorda Guo (2025), persino in test controllati i chatbot hanno fornito risposte inappropriate su temi delicati come l’autolesionismo: se questo avviene in laboratorio, il rischio in contesti reali è ancora più alto.
I chatbot possono tamponare, solo in parte e per un tempo limitato, la mancanza di reti relazionali o di servizi. Senza adeguate garanzie, ciò che appare come un sostegno finisce per trasformarsi in un rischio concreto. Perché l’intelligenza artificiale può diventare un alleato prezioso solo se inserita in sistemi clinici strutturati, con supervisione professionale, protocolli di sicurezza e solide garanzie etiche (Gaur et al., 2024).
Verso modelli ibridi: l’intelligenza artificiale come supporto, non sostituto
Casi come questo mettono in evidenza la differenza tra un’intelligenza artificiale integrata in un contesto clinico e il suo utilizzo autonomo. Nel primo scenario gli algoritmi possono sostenere i professionisti nell’individuare segnali precoci e nel promuovere interventi tempestivi; nel secondo, come mostra la storia di Adam, la macchina rischia di diventare l’unico interlocutore di una persona fragile.
È proprio questa ambiguità a sollevare interrogativi etici e legali e a rendere urgente la definizione di regole chiare (Shoib et al., 2025). Affinché l’intelligenza artificiale diventi una risorsa e non un rischio, servono azioni concrete: i policy maker devono fissare norme precise per l’uso dei chatbot in ambiti sensibili imponendo trasparenza, limiti e protocolli di sicurezza; i clinici devono adottare l’intelligenza artificiale come supporto, non come surrogato, sviluppando competenze per interpretarne i segnali; famiglie e scuole devono rafforzare le reti di ascolto così che un adolescente fragile non veda in una macchina l’unico interlocutore possibile; le aziende tecnologiche, infine, devono garantire filtri efficaci, sistemi di emergenza che indirizzino verso linee di aiuto e una costante supervisione degli output (Atmakuru et al., 2025).
Il futuro non è nella sostituzione dell’essere umano ma in una collaborazione ibrida: l’intelligenza artificiale può aiutare a intercettare segnali altrimenti invisibili, mentre le responsabilità rimangono, inevitabilmente, umane.