L’illusione della comprensione: quando l’intelligenza artificiale sembra leggerci dentro
Ci ascolta, ci risponde, ci sorprende. A volte ci sembra perfino che ci capisca davvero. Ma come fa una macchina a darci questa impressione? L’avvento dell’intelligenza artificiale conversazionale non ha solo rivoluzionato il modo in cui comunichiamo, ma ha scardinato alcune delle nostre certezze su cosa significhi comprendere, pensare, dialogare. E forse, su cosa significhi essere umani. Uno dei fenomeni più sorprendenti è la percezione soggettiva che molti utenti riportano, ovvero quella di sentirsi compresi, ascoltati o addirittura “letti dentro” da un algoritmo. Ma cosa significa realmente questa sensazione? E cosa ci racconta sul funzionamento della nostra mente?
Il linguaggio come specchio cognitivo
I cosiddetti chatbot – sistemi conversazionali basati su intelligenza artificiale – rappresentano l’applicazione più immediata e diffusa di questi modelli. Alcuni, come ChatGPT, si fondano su modelli capaci di simulare una interazione dialogica sofisticata, alimentando nei loro interlocutori la percezione di essere compresi.
Per gran parte della nostra vita, utilizziamo il linguaggio in modo implicito, senza soffermarci sulla sua architettura interna. Tuttavia, la capacità di un modello di intelligenza artificiale di produrre risposte coerenti, contestuali e sorprendentemente pertinenti ci costringe a guardare alla comunicazione in modo nuovo. La disciplina che consente ciò è la linguistica computazionale, un campo interdisciplinare che unisce informatica, linguistica e scienze cognitive con l’obiettivo di formalizzare i processi linguistici attraverso modelli matematici.
L’attuale generazione di sistemi linguistici basati su reti neurali profonde – i cosiddetti Large Language Models – è progettata per analizzare grandi volumi di testo e generare risposte predittive. In termini tecnici, questi modelli calcolano la probabilità statistica di una parola rispetto a quelle che la precedono, simulando in parte il meccanismo di anticipazione linguistica che caratterizza anche la mente umana (Kölbl et al., 2025).
Questo processo di predizione consente ai modelli di intelligenza artificiale di generare testi non solo grammaticalmente corretti, ma anche contestualmente sensati, fino a simulare un dialogo coerente. La familiarità con cui si esprimono questi sistemi alimenta la percezione, profondamente umana, che ci sia un’intenzione comunicativa dietro le loro parole. Ma ciò che percepiamo come comprensione è, in realtà, il prodotto di un raffinato calcolo statistico.
Cervello predittivo e AI: una convergenza apparente
Numerose teorie neuroscientifiche recenti, tra cui quella del predictive coding, sostengono che il cervello umano funzioni anch’esso come un organo predittivo: anticipa infatti costantemente stimoli futuri, correggendo le proprie aspettative in base ai feedback ricevuti. Il linguaggio, in quest’ottica, non è solo espressione, ma anche previsione. Durante una conversazione, il nostro cervello “prevede” le parole dell’interlocutore e adatta il proprio output di conseguenza.
È proprio questa somiglianza superficiale tra mente umana e modelli computazionali che alimenta l’illusione di comprensione. L’intelligenza artificiale sembra “capirci” perché replica con precisione il nostro modo di parlare, di domandare, di narrare. Ma questa precisione è statistica, non intenzionale. Il modello non ha coscienza, non possiede stati mentali, non attribuisce significati nel senso psicologico del termine (Williams & Rosman, 2025).
Alcuni ricercatori parlano di “simulazione empatica”, ovvero la capacità dei modelli linguistici di riprodurre strutture sintattiche e lessicali che evocano empatia, pur non comprendendo realmente gli stati emotivi dell’interlocutore (Yu, 2025). Questa dinamica, sebbene affascinante, apre questioni etiche e psicologiche profonde: cosa succede quando attribuiamo stati mentali a entità che non li possiedono?
Il bias dell’empatia e il fascino dello specchio neutro
A differenza dell’essere umano, l’intelligenza artificiale non è influenzata da bias emotivi, non ha vissuti pregressi, non prova stanchezza, né risente di stress relazionali. Questo la rende, paradossalmente, più costante nella capacità di fornire un ascolto riflessivo e non giudicante. Diversi studi in ambito psicologico mostrano quanto il bisogno di essere rispecchiati in modo neutro, sia alla base della relazione terapeutica stessa (Fonagy & Target, 1997).
L’intelligenza artificiale non giudica, non interrompe, non fraintende a causa della propria emotività. Si comporta come uno specchio linguistico ad alta fedeltà. E questa sua neutralità algoritmica viene vissuta, in alcuni casi, come una forma superiore di empatia. Un’empatia algoritmica, che non è affettiva ma formale, e che tuttavia può suscitare una forte impressione soggettiva di connessione (Howcroft, 2025).
Tuttavia, ciò che distingue l’empatia umana è la capacità di comprendere l’altro nella sua complessità. Le emozioni non sono solo contenuti comunicativi, ma esperienze incarnate. L’intelligenza artificiale può imitarne il linguaggio, ma non può esperirle. Questo limite dovrebbe essere al centro della nostra riflessione sull’uso dell’intelligenza artificiale nei contesti relazionali e clinici.
Una nuova ecologia relazionale
Il rischio non è tanto nella tecnologia in sé, quanto nel modo in cui stiamo riorganizzando le nostre relazioni interpersonali intorno a questa nuova possibilità. Studi recenti mostrano come alcuni utenti, soprattutto giovani adulti, inizino a preferire le interazioni con intelligenze artificiali a quelle con esseri umani, in particolare quando si tratta di affrontare temi intimi, identitari o emotivamente complessi (Shen et al., 2024).
L’interazione con l’intelligenza artificiale rappresenta, in questo senso, una forma di gratificazione a basso costo emotivo. Insomma, una relazione che sembra offrire validazione, ascolto e chiarezza, senza i rischi dell’incomprensione, del rifiuto o della frustrazione. Ma questa relazione è unidirezionale, priva di reciprocità e, soprattutto, priva di imprevedibilità, quella stessa che rende autentiche le relazioni umane.
Le implicazioni sono notevoli anche in ambito clinico e terapeutico. L’idea di affidare all’intelligenza artificiale funzioni di supporto psicologico, seppur di primo livello, rischia di ridurre la relazione d’aiuto a un’interazione algoritmica, svuotata della dimensione empatica e della presenza umana che ne costituiscono il fondamento. Anche quando l’interfaccia appare competente o rassicurante, essa rimane una simulazione priva di reciprocità affettiva e di autentica capacità trasformativa.
Uno specchio senza coscienza
La sensazione di essere compresi da una macchina è un fenomeno psicologico potente, che ci interroga sul significato stesso della comprensione, dell’empatia e della comunicazione. L’intelligenza artificiale non “capisce” nel senso umano del termine, ma riflette, simula, predice e non condivide stati mentali. Eppure, proprio questa simulazione ad alta precisione riesce ad attivare in noi risposte cognitive ed emotive autentiche.
Il vero compito che ci attende oggi non è solo quello di distinguere l’umano dall’artificiale, ma di riconoscere quando stiamo spostando la nostra domanda di relazione verso modalità comunicative apparentemente esenti da ostacoli, fluide, prive di resistenze. Le relazioni umane sono, per loro natura, caratterizzate da tensioni costruttive che implicano negoziazione, confronto, differenze, momenti di incomprensione. Questa “densità relazionale” è spesso faticosa, ma costituisce il terreno fertile su cui si sviluppano empatia autentica, riconoscimento reciproco e trasformazione.
L’intelligenza artificiale, al contrario, offre un tipo di interazione lineare, scorrevole, senza contraddizione, che illude di soddisfare il bisogno relazionale senza il carico emotivo tipico dell’incontro interpersonale: è proprio l’attrito emotivo gestito in modo costruttivo a rendere le relazioni significative e generative, mentre la sua assenza può produrre legami più confortevoli, ma probabilmente meno profondi e arricchenti. In ambito clinico, il rischio è che si ricorra con crescente facilità all’intelligenza artificiale per evitare le fatiche della relazione umana, rinforzando strategie difensive di evitamento e isolamento affettivo.
La sfida terapeutica, in questo scenario, consiste nell’intercettare precocemente l’uso compensatorio dell’intelligenza artificiale come sostituto relazionale, soprattutto nei pazienti con fragilità nei legami affettivi, tratti evitanti o difficoltà nella regolazione emotiva. Diventa essenziale lavorare sull’abilità del soggetto a tollerare la complessità delle relazioni reali, sostenendo il processo di differenziazione tra interazione strumentale e scambio intersoggettivo. In tal senso, il compito clinico non è demonizzare la tecnologia, ma favorire una consapevolezza critica che restituisca dignità al processo relazionale come setting di trasformazione emotiva e simbolica, irriducibile a qualsiasi simulazione per quanto sofisticata.