expand_lessAPRI WIDGET

Oltre la promessa dell’Intelligenza Artificiale: verso una cura digitale consapevole – Psicologia Digitale

L’intelligenza artificiale offre strumenti innovativi per la salute mentale, ma la cura resta fondata su ascolto, relazione e comprensione emotiva

Di Chiara Cilardo

Pubblicato il 14 Nov. 2025

Chatbot terapeutici e intelligenza artificiale

PSICOLOGIA DIGITALE – (Nr. 80) Oltre la promessa dell’Intelligenza Artificiale: verso una cura digitale consapevole

I progressi nel machine learning e nell’elaborazione del linguaggio naturale hanno dato vita a chatbot capaci di riconoscere emozioni, monitorare sintomi e suggerire interventi personalizzati. Le applicazioni spaziano dall’individuazione precoce dei disturbi alla costruzione di piani di trattamento su misura, fino ai “virtual therapist” che interagiscono in tempo reale (Olawade et al., 2024). L’intento dichiarato è colmare il divario tra domanda e offerta di servizi psicologici in un sistema sempre più sovraccarico.
Ma l’efficienza di una tecnologia, per quanto sofisticata, non coincide con la profondità di una relazione terapeutica. È su questo confine che, nell’Agosto 2025, l’Illinois ha scelto di intervenire, vietando l’uso dell’intelligenza artificiale nella terapia psicologica e proibendo alle aziende di offrire o pubblicizzare chatbot terapeutici senza la supervisione di un professionista (Wu, 2025).
Una decisione che va oltre il piano legislativo: riflette lo scarto sempre più evidente tra l’euforia tecnologica e la complessità della cura mentale. Fino a che punto, dunque, è possibile automatizzare l’ascolto, la comprensione e la relazione terapeutica?

L’illusione della terapia automatizzata: il rischio della riduzione algoritmica

I chatbot riconoscono schemi linguistici e generano risposte coerenti, ma non comprendono il significato dell’esperienza umana. Pur mostrando una certa efficacia nel ridurre sintomi lievi di ansia o stress, restano strumenti “aspecifici”, basati su protocolli standardizzati e incapaci di cogliere il contesto emotivo e relazionale. La letteratura mostra come questi sistemi possano migliorare il benessere percepito, senza però sostituire la complessità del processo terapeutico, che richiede continuità, empatia e co-costruzione del significato. La loro efficacia è quindi funzionale ma non trasformativa: danno risposte ma restano estranee alla dimensione relazionale della cura (Bhatt, 2025).
Nella relazione terapeutica, paziente e terapeuta co-costruiscono il percorso di cura: le parole, i silenzi e le emozioni diventano materia viva di comprensione reciproca.
I sistemi di intelligenza artificiale, al contrario, operano in senso opposto: trasformano vissuti ed emozioni in dati da elaborare, riducendo l’esperienza umana a numeri, categorie e probabilità.
In questa traduzione automatica si perde qualcosa di essenziale: il senso. La sofferenza non è più ascoltata o interpretata, ma semplicemente registrata e classificata. Così si rischia una semplificazione che appiattisce la complessità delle persone in una sequenza di dati (Skorburg et al., 2024).

Dal dato alla persona: il fattore umano

Come mantenere il confine tra intervento clinico e interazione informativa? Come tutelare la privacy in sistemi che apprendono dai dati degli utenti? E, soprattutto, chi è responsabile quando un algoritmo fallisce nel riconoscere un segnale di rischio? La logica della cultura digitale privilegia la rapidità, la standardizzazione e la misurabilità dei risultati. La psicologia clinica punta sull’ascolto, sulla complessità e sulla costruzione condivisa di significato: è in questa differenza che si misura la distanza tra efficienza e comprensione (Keum et al., 2025).
La decisione dell’Illinois di vietare l’uso dell’Intelligenza artificiale nella terapia psicologica rappresenta un tentativo di riaffermare la centralità del fattore umano, in un contesto in cui la tecnologia rischia di diventare una scorciatoia economica. Come sottolineano Skorburg, O’Doherty e Friesen (2024), la governance dell’intelligenza artificiale in salute mentale non può limitarsi a garantire la trasparenza dei dati: deve affrontare la questione della partecipazione. Chi decide come e perché un algoritmo viene addestrato? Chi controlla i dataset che modellano le risposte “empatiche”? E come possono essere coinvolti nel processo decisionale pazienti in condizioni di vulnerabilità? 

Co-evoluzione responsabile: integrare la tecnologia, non subirla

La spinta verso la digitalizzazione nasce da bisogni reali: scarsità di risorse, stigmatizzazione, difficoltà di accesso ai servizi (Olawade et al., 2024). L’intelligenza artificiale rappresenta, in parte, una risposta a una crisi strutturale dei sistemi di cura.
La tecnologia fa parte del nostro quotidiano e continuerà a trasformare il modo in cui pensiamo la cura. Per questo la sfida non è resistere al cambiamento, ma integrarlo consapevolmente, inserendo gli strumenti digitali all’interno dei modelli tradizionali di psicoterapia e preservando la dimensione relazionale che ne costituisce il fondamento, in una prospettiva di co-evoluzione responsabile e percorsi di integrazione uomo-IA in cui l’algoritmo supporta il terapeuta senza sostituirne la presenza (Casu et al., 2024).
Occorrono politiche di alfabetizzazione digitale rivolte a professionisti e cittadini, capaci di sviluppare la competenza critica per comprendere che cosa un algoritmo può (e soprattutto che cosa non può) fare. L’obiettivo non è resistere alla tecnologia ma abitarla consapevolmente, ridefinendo le regole dell’incontro tra mente umana e mente artificiale (Keum et al., 2025). Regolare l’uso dell’intelligenza artificiale nella salute mentale non significa temere il futuro, ma ricordare che la mente, come la cura, è prima di tutto un qualcosa di molto, molto umano.

Riferimenti Bibliografici
CONSIGLIATO DALLA REDAZIONE
Quando i morti tornano in video: lutto, identità e “resurrezione digitale” nell’era dell’intelligenza artificiale – Psicologia Digitale

La resurrezione digitale nell’era dell’intelligenza artificiale ridefinisce il lutto, la memoria e il confine tra presenza e assenza

cancel