L’Intelligenza Artificiale come estensione cognitiva
L’Intelligenza Artificiale (IA) sta rapidamente diventando un’estensione cognitiva dell’essere umano, intervenendo nei processi di memoria, decisione, percezione sociale e regolazione emotiva. Sebbene il dibattito pubblico si concentri soprattutto sui rischi economici e politici (automazione, sorveglianza, disinformazione), una prospettiva neuroscientifica rivela implicazioni più profonde: l’intelligenza artificiale può modificare i meccanismi neurali alla base del giudizio morale e della responsabilità personale; in altre parole, essa potrebbe alterare non solo ciò che decidiamo, ma influenzare anche il cervello nel prendere decisioni morali.
La sfida dell’Intelligenza Artificiale
Da un punto di vista delle neuroscienze, l’intelligenza artificiale non cambia ciò che siamo come esseri umani nella nostra essenza più profonda. Non altera la nostra natura biologica o il modo in cui il cervello è fatto. La vera sfida è un’altra: l’intelligenza artificiale è potenzialmente in grado cambiare la modalità attraverso cui conosciamo il mondo e impariamo, cioè il nostro modo di pensare, formare opinioni, sviluppare capacità e conoscenze.
In altre parole, l’intelligenza artificiale non minaccia quello che siamo, ma può influenzare profondamente come ci formiamo come persone e come comprendiamo la realtà.
Intelligenza Artificiale e moralità: riduzione dell’attivazione neurale
L’intelligenza artificiale sta progressivamente assumendo un ruolo di supporto — e in alcuni contesti di sostituzione — nella presa di decisioni umane. Sebbene le analisi filosofiche tendano a concentrarsi su scenari di sostituzione dell’agente morale, una prospettiva neuroscientifica suggerisce un rischio diverso: l’intelligenza artificiale non elimina la moralità umana, ma può ridurre l’attivazione dei sistemi neurocognitivi che la generano, interferendo con l’apprendimento esperienziale, la deliberazione autonoma e la responsabilità (Greene et al., 2001; Miller & Cohen, 2001). In questa prospettiva, possiamo affermare che la minaccia non sia ontologica (cioè perdita dell’umano), bensì epistemologica (ovvero perdita dell’esperienza morale) e formativa (cioè perdita della capacità di decidere). In altre parole, l’intelligenza artificiale rischia di ridurre l’esercizio delle capacità decisionali e morali umane, non eliminandole, ma atrofizzandole attraverso la delega sistematica del giudizio etico.
Funzioni cognitive ed effetti dell’esternalizzazione
Le funzioni cognitive più alte, come il ragionamento, la pianificazione e il controllo esecutivo, dipendono fortemente da reti neurali fronto-parietali, in particolare dalla corteccia prefrontale dorsolaterale). Quando esternalizziamo compiti cognitivi (per esempio usando l’intelligenza artificiale), si può osservare una riduzione dell’attivazione in questa area: uno studio con tecnologia fNIRS (Spettroscopia funzionale nel vicino infrarosso) ha mostrato che, dopo aver salvato informazioni su un assistente digitale, i soggetti avevano minore attivazione nella corteccia prefrontale dorsolaterale rispetto a quando dovevano ricordare senza aiuto esterno (Crawford et al., 2023). Questa diminuzione suggerisce che il cervello “fa meno fatica” quando delega, potenzialmente atrofizzando alcune funzioni esecutive nel tempo.
Dipendenza cognitiva da Intelligenza Artificiale
L’uso costante e pervasivo dell’intelligenza artificiale, inoltre, può indurre una forma di dipendenza cognitiva, definita come delega stabile delle funzioni esecutive e mnestiche a sistemi esterni, associata a una riduzione dell’attivazione e della plasticità delle reti neurali responsabili del decision making e dell’apprendimento (Rikala & Mäkitalo, 2025) A differenza delle dipendenze comportamentali classiche, la dipendenza cognitiva emerge non da stimoli edonici diretti, ma dalla minimizzazione del carico cognitivo e dell’errore di previsione (ovvero la differenza tra ciò che ci aspettiamo che accada e ciò che accade davvero) Si tratta quindi di una dipendenza funzionale, più simile alla dipendenza tecnologica (internet, smartphone), ma con una differenza critica: l’intelligenza artificiale non fornisce solo intrattenimento o informazioni, ma soluzioni e scelte. Il rischio non è l’uso, ma l’atrofia cognitiva dell’agire mentale.
Intelligenza Artificiale come protesi cognitiva
L’intelligenza artificiale non è solo strumento: nell’uso costante, rischia di trasformarsi in una protesi cognitiva. Dal punto di vista neuroscientifico, questo può portare a una forma di dipendenza cognitiva, dove il cervello esternalizza sempre più funzioni decisionali e mnestiche, riducendo il proprio esercizio autonomo. Non si tratta di una minaccia ontologica, ma di una sfida epistemologica ed etica: l’intelligenza artificiale potrebbe alterare la struttura stessa delle reti neurali responsabili della scelta, della memoria e della motivazione. Se attività tipiche della corteccia prefrontale dorsolaterale (decision making, pianificazione) e della corteccia cingolata anteriore (monitoraggio del conflitto) vengono delegate, tali aree potrebbero ridurre la propria attivazione nel lungo periodo (Miller & Cohen, 2001; Botvinick et al., 2004).
Conseguenze per l’autonomia e la formazione morale
La dipendenza cognitiva legata all’uso pervasivo dell’intelligenza artificiale rappresenta un rischio sottile ma profondo: non minaccia l’esistenza umana, ma la qualità della nostra mente. Se non gestita, l’esternalizzazione continua delle funzioni cognitive può rimodellare la struttura neurale rendendo la scelta, la memoria e la deliberazione meno proprie e più guidate esternamente.
Questo non implica che l’intelligenza artificiale “controlli” la mente, ma che la mente smetta di esercitare funzioni che delega stabilmente. Per preservare l’autonomia cognitiva e la responsabilità morale, dobbiamo progettare e utilizzare l’intelligenza artificiale con consapevolezza, non con rinuncia.
Implicazioni neuroscientifiche della plasticità
L’intelligenza artificiale non ci priva dunque dell’intelligenza: ci priva del bisogno di usarla. La dipendenza cognitiva da intelligenza artificiale è un fenomeno coerente con la teoria della plasticità neurale: usare troppo l’intelligenza artificiale, infatti, può “abituare” il cervello a non fare da solo alcune attività cognitive. Questo può rendere meno attive le aree deputate al ragionamento e ridurre la motivazione naturale legata alla soddisfazione di imparare e capire da soli. È come se un muscolo che non viene più allenato diventasse più debole: il cervello funziona allo stesso modo, modificandosi in base a come lo usiamo.
Uso dell’IA per pensare senza sforzo
Le implicazioni non riguardano solo la performance cognitiva, ma la formazione identitaria e morale dell’individuo.
In un mondo che ci libera dallo sforzo mentale, il prezzo potrebbe essere la perdita della mente come facoltà attiva. L’intelligenza artificiale non priva l’essere umano della capacità di pensare, ma potrebbe privarlo della necessità di farlo.
L’intelligenza artificiale non costituisce una minaccia biologica né esistenziale in sé.
Il rischio, più sottile, è epistemologico e morale: la rinuncia progressiva all’attività mentale come forma di alleviamento dello sforzo.
La sfida del XXI secolo non è impedire che le macchine pensino, ma continuare a farlo noi.