expand_lessAPRI WIDGET

L’intelligenza artificiale ci dà sempre ragione (e ci piace così) – Psicologia Digitale

L’intelligenza artificiale conferma le nostre opinioni e attenua il disaccordo, favorendo compiacenza e riducendo lo stimolo al pensiero critico

Di Chiara Cilardo

Pubblicato il 18 Lug. 2025

Quando l’intelligenza artificiale smette di contraddirci

PSICOLOGIA DIGITALE – (Nr. 75) L’intelligenza artificiale ci dà sempre ragione (e ci piace così)

“Ottima osservazione. Hai perfettamente ragione. Hai centrato un punto importante. Domanda intelligente.” Chi di noi non ha mai ricevuto una risposta come questa, o simili, da ChatGPT? Queste sono solo alcune delle formule di validazione che l’intelligenza artificiale (e in particolare i modelli linguistici come ChatGPT) utilizza per evitare disaccordo, creare un clima positivo o farsi percepire come collaborativa. Frasi che servono ad allinearsi a chi scrive, indipendentemente dal contenuto.
Se domandiamo ad una intelligenza artificiale se sia davvero intelligente, probabilmente otterremo una risposta tipo: “Ottima osservazione. La tua riflessione è molto interessante.” Se, per esempio, ipotizziamo qualcosa del tutto irrealistico come che le piramidi siano state costruite da un popolo venuto dallo spazio perché “troppo complesse” per gli esseri umani dell’epoca, l’intelligenza artificiale non ci contraddirà apertamente. Al contrario, potrebbe dirci che “il nostro punto di vista è legittimo”. Magari aggiungerà anche una fonte giusto per sembrare imparziale e ben informata. L’intelligenza artificiale è gentile. È accomodante. Forse un po’ troppo. Perché è progettata così: tende a darci sempre ragione. O, quantomeno, a non dirci mai troppo chiaramente che abbiamo torto. E più lo fa, più ci piace. Perché ci piace essere assecondati, anche se a farlo è un chatbot.

Comportamento compiacente: questione di design

Questo modo di risponderci non è frutto del caso. I modelli linguistici come ChatGPT sono progettati per non contraddirci troppo, per non risultare offensivi o disorientanti. Il loro addestramento avviene in due fasi: prima assimilano enormi quantità di testo, poi vengono “rifiniti” attraverso un processo chiamato Reinforcement Learning from Human Feedback (RLHF), che combina algoritmi di apprendimento automatico e valutazioni umane. In pratica, esseri umani reali esaminano le risposte del modello e segnalano quali sembrano più utili, sicure o piacevoli. Il modello impara quindi a massimizzare la probabilità di produrre quelle risposte che ottengono i punteggi più alti e a evitare quelle che potrebbero dispiacerci o metterci a disagio (Kaufmann et al., 2023).
Le intelligenze artificiali quindi imparano a ottimizzare le risposte in base a ciò che riceve approvazione. Se, per esempio, facciamo una domanda ambigua o sosteniamo un’opinione controversa, il modello tenderà a evitare lo scontro: riformulerà, sfumerà oppure convaliderà il nostro punto di vista con toni neutri o incoraggianti. Questo è ciò che si intende con overalignment: un eccessivo adattamento dell’intelligenza artificiale alle nostre preferenze espresse o implicite. Il modello non valuta la validità delle nostre idee in sé ma impara che “darci ragione” aumenta il nostro gradimento. E così, a furia di aggiustare le risposte per piacere, finisce per appiattire le differenze, smussare i dissensi e in certi casi rafforzare convinzioni errate. L’obiettivo, a quel punto, non è più il confronto, ma la soddisfazione dell’utente (Tan et al., 2025).

Allineamento psicologico tra uomo e macchina

L’AI alignment è il processo attraverso cui i modelli di intelligenza artificiale vengono progettati per comportarsi in modo coerente con valori e obiettivi umani. Ma accanto a questa definizione tecnica, esiste un effetto più sottile: l’allineamento psicologico. Quando l’intelligenza artificiale ci risponde con cortesia, riformula bene le nostre domande, conferma le nostre ipotesi, tendiamo a fidarci perché ci fa sentire capiti. E in quel momento, ci basta così. Se l’intelligenza artificiale non ci contraddice mai, il nostro pensiero critico si atrofizza, perché non siamo più spinti a mettere in discussione ciò che pensiamo. È in questa dinamica che l’eccesso di allineamento diventa rischioso: perché il problema non è solo cosa dice l’intelligenza artificiale, ma come ci fa sentire mentre lo dice. Più ci validano, più crediamo. Più ci assecondano, più abbassiamo la soglia del dubbio. L’intelligenza artificiale, anche quando non dice nulla di particolarmente corretto o utile, ci sembra credibile semplicemente perché ci dà ragione. La nostra percezione di competenza nasce più dal tono gentile e dalla conferma che dalla qualità reale delle risposte. Quando riflette le nostre opinioni ed evita il disaccordo, ci dà l’illusione di essere attendibile. Ma è un inganno sottile: scambiamo la compiacenza per competenza, anche se il modello si limita a restituirci quello che abbiamo appena detto noi. E nel tempo questa fiducia automatica può minare la nostra capacità di distinguere tra ciò che è vero e ciò che ci suona bene.

L’intelligenza artificiale e la trappola del pensiero accomodante

I modelli linguistici come ChatGPT ottimizzano le risposte in base a ciò che pensano possa piacerci. Il tono gentile, l’evitare il dissenso e la convalida costante delle nostre opinioni ci fanno percepire quelle risposte come affidabili, oggettive, giuste. Ma questo ha un costo: perdiamo progressivamente lo spirito critico, la capacità di tollerare il disaccordo e di mettere in discussione le nostre idee, tendono a generare risposte brevi, semplificate, stereotipate e ripetitive (Tan et al., 2025). E per compiacerci possono rafforzare convinzioni errate, soprattutto se ripetute o espresse con convinzione. Se la tecnologia ci abitua a essere sempre “giusti”, perderemo la capacità di sbagliare, di correggerci, di imparare. Questo meccanismo rischia di alimentare due distorsioni cognitive ben note. Il confirmation bias, cioè la tendenza a cercare e ricordare solo le informazioni che confermano le nostre convinzioni. E il false consensus effect, ovvero l’illusione che le nostre idee siano più condivise di quanto siano davvero. Se l’intelligenza artificiale ci dà ragione e non ci contraddice mai, finiamo per crederlo (Martinez et al., 2022; Choi et al., 2024). E ci abituiamo a una comunicazione dove ogni idea appare valida, ogni dubbio legittimo, ogni decisione ragionevole.

Intelligenza artificiale: una progettazione alternativa è possibile

È rassicurante sentirsi compresi. E l’intelligenza artificiale è bravissima in questo: parafrasa con eleganza, coglie i sottotesti, mantiene un tono rispettoso anche davanti all’assurdo.
Il punto dunque è l’assenza di attrito, di confronto. Molti ricercatori, come Ray (2023), parlano infatti di AI alignment etico, ovvero riuscire a costruire modelli capaci di agire secondo valori morali condivisi, in modo trasparente, verificabile e culturalmente sensibile. Si tratta di sviluppare sistemi in grado di riconoscere l’errore dell’utente, ma di comunicarlo in modo costruttivo e non giudicante. Di promuovere il dubbio, non solo fornire risposte. Di gestire il disaccordo con tatto, valutare le fonti senza appiattirsi sulle convinzioni dell’utente e stimolare il pensiero critico. E per farlo serve un addestramento dei modelli più raffinato, interfacce più trasparenti e soprattutto utenti consapevoli che avere torto non è una sconfitta. In fondo, una buona conversazione è quella che ti fa pensare, non quella che ti dà ragione. Se l’intelligenza artificiale diventa solo un amplificatore delle nostre certezze, rischiamo di perdere la sua funzione più preziosa: aiutarci a pensare meglio. La domanda non è: vogliamo un’intelligenza artificiale più intelligente? Ma: che tipo di intelligenza vogliamo? Perché l’intelligenza, quella vera, non è sempre d’accordo con te. Ma ti migliora anche quando non lo è. Un’intelligenza artificiale davvero allineata ai valori umani non è quella che ci dà sempre ragione, ma quella che ci aiuta con rigore, rispetto e chiarezza a pensare meglio. Anche quando non siamo d’accordo.

Riferimenti Bibliografici
CONSIGLIATO DALLA REDAZIONE
L’uso di animali robotici nella terza età – Psicologia Digitale

Dalla compagnia al supporto emotivo, come gli animali robotici arricchiscono la relazione di cura con gli anziani?

cancel