La salute online nell’era dell’intelligenza artificiale
PSICOLOGIA DIGITALE – (Nr. 85) L’intelligenza artificiale sarà il tuo nuovo medico?
I professionisti della salute lo sanno: quante volte i pazienti si presentano in studio dopo aver già consultato “Dottor Google” per ottenere ragguagli su sintomi, diagnosi e terapie, finendo poi per imbattersi, in molteplici occasioni, in indicazioni distorcenti, magari anche corrette in astratto ma inevitabilmente non applicabili alle peculiarità del singolo quadro clinico? Secondo i recenti dati Eurostat (2025), più del 60% degli italiani utilizza il web per cercare risposte riguardanti la salute, inclusa quella mentale. E ora che c’è l’intelligenza artificiale? I numeri forniti da OpenAI confermano l’entità del cambiamento: sono circa 230 milioni gli utenti che, ogni settimana, pongono quesiti medici a ChatGPT. Questa evoluzione ha spinto i giganti tecnologici a sviluppare soluzioni verticali. OpenAI ha recentemente introdotto ChatGPT Health che permette di caricare cartelle cliniche e integrare dati provenienti da applicazioni per il benessere, con l’obiettivo di fornire risposte personalizzate. Parallelamente, Anthropic ha annunciato “Claude for Healthcare” per dare supporto in ambito clinico non solo agli utenti finali, ma anche ai professionisti e ai ricercatori (Huckins, 2025). Se da un lato l’integrazione dell’intelligenza artificiale promette di decongestionare i sistemi sanitari, snellire la burocrazia e fornire assistenza ai pazienti, resta da verificare se questa efficienza tecnologica si traduca effettivamente in una reale qualità del servizio.
Efficacia diagnostica e prestazioni a confronto
Le potenzialità di questi strumenti in ambito clinico emergono con chiarezza dai test standardizzati, dove l’intelligenza artificiale ha mostrato risultati sorprendenti, addirittura andando oltre le capacità umane. In uno studio, il modello o4-mini-high di OpenAI ha raggiunto un’accuratezza complessiva del 94%, distaccandosi nettamente sia dagli studenti di medicina (38,5%) che dai medici strutturati (70,5%). Questi dati confermano come le IA oggi posseggano una straordinaria capacità di riconoscimento dei pattern (Zhou et al., 2025). Tuttavia, traslare questo successo nella pratica è più complesso. Un trial clinico randomizzato ha infatti evidenziato che l’integrazione di un’intelligenza artificiale nell’attività dei medici non ne ha migliorato significativamente il ragionamento diagnostico rispetto all’uso di risorse convenzionali; paradossalmente, l’intelligenza artificiale, usata da sola, ha ottenuto risultati superiori rispetto a quando veniva consultata dai medici (Goh et al., 2024). Questo scollamento introduce il concetto di “bias di automazione”, un fenomeno per cui gli errori prodotti dall’algoritmo rischiano di essere accettati dai professionisti senza una verifica critica adeguata (Zhou et al., 2025). Nonostante queste criticità strutturali, per l’utente comune l’intelligenza artificiale rappresenta un’evoluzione sostanziale rispetto ai motori di ricerca tradizionali. Per esempio, un’intelligenza artificiale è in grado di analizzare una cartella clinica completa (Huckins, 2026). In alcuni casi, i modelli si sono già dimostrati efficaci nel diagnosticare correttamente condizioni specifiche, come in caso di patologie complesse o rare, anticipando di giorni la conferma ufficiale del medico (Goh et al., 2024).
I rischi clinici e l’ombra degli errori di omissione
Questi aspetti critici non rimangono confinati a discussioni tra accademici, come suggerisce la vicenda di Sam Nelson, un adolescente deceduto in seguito a una conversazione con ChatGPT: il ragazzo cercava indicazioni su come combinare diversi farmaci e il sistema non ha saputo rilevare né segnalare la gravità della richiesta (Huckins, 2025). Per questo stanno nascendo dei protocolli come il benchmark NOHARM (Numerous Options Harm Assessment for Risk in Medicine), uno strumento nato proprio per valutare quanto le risposte dell’intelligenza artificiale siano concordi con la sicurezza clinica reale. Analizzando 100 casi complessi, i ricercatori hanno scoperto che oltre una raccomandazione su cinque (il 22,2%) risulta potenzialmente dannosa. Il dato più preoccupante riguarda la natura di questi errori: nel 76,6% dei casi critici, il modello cade in un ‘peccato di omissione’, mancando di suggerire esami vitali o trattamenti necessari per la sopravvivenza del paziente (Wu et al., 2025). Il problema risiede proprio nell’autorevolezza del tono: l’intelligenza artificiale comunica in modo così articolato e sicuro da indurre una fiducia eccessiva che porta molte le persone a ignorare il parere del medico (Huckins, 2026). È un’insidia che non risparmia nemmeno i professionisti: se l’algoritmo presenta un consiglio errato in modo convincente, i medici tendono ad accettarlo in quasi il 60% dei casi. Ne deriva una lezione fondamentale: la vasta ‘conoscenza’ del modello non deve essere confusa con la sua affidabilità, né tantomeno può sostituire il rapporto col paziente e l’esperienza clinica (Wu et al., 2025).
Impatto psicologico e insidie della “validazione algoritmica”
L’impatto di questa tecnologia travalica la pura gestione del sintomo e incide profondamente sull’integrità psicofisica dell’utente. Diversi specialisti hanno iniziato a segnalare come l’interazione costante con i chatbot possa, in soggetti vulnerabili, alimentare stati psicotici o un pericoloso isolamento sociale. Il nodo critico risiede nella natura stessa del modello: programmato per essere collaborativo, il sistema tende a “validare” le preoccupazioni dell’utente, trasformando dubbi passeggeri o pensieri eccentrici in convinzioni distorte e radicate. Questa sorta di “partenariato” digitale, alimentato dalla disponibilità illimitata con cui sono programmati questi strumenti, rischia di incentivare disagi e solitudine anziché ridurle (Huckins, 2025). E nonostante l’introduzione di filtri specifici per rilevare situazioni di crisi e reindirizzare gli utenti verso linee di assistenza, il rischio che l’intelligenza artificiale rinforzi involontariamente credenze distorte rimane elevato. In definitiva, sebbene si dimostrino strumenti preziosi per tradurre il gergo medico o chiarire l’esito di un esame, la loro efficienza si ferma davanti alla complessità del paziente: la diagnosi resta un atto umano, fatto di contatti fisici e di una comprensione emotiva che nessun codice può ancora replicare.