expand_lessAPRI WIDGET

Solitudine digitale e Intelligenza Artificiale: i chatbot possono davvero sostituire le relazioni umane?

Tra empatia simulata e dipendenza emotiva, i chatbot basati sull’intelligenza artificiale per contrastare la solitudine sono una soluzione o solo un'illusione?

Di Chiara Cilardo

Pubblicato il 18 Apr. 2025

Aggiornato il 22 Apr. 2025 12:53

L’intimità nell’era della tecnologia: un’illusione o una nuova realtà

PSICOLOGIA DIGITALE – (Nr. 68) Solitudine digitale e Intelligenza Artificiale: i chatbot possono davvero sostituire le relazioni umane?

Viviamo in un mondo iperconnesso in cui ogni dispositivo – dalla smart TV allo smartphone, fino agli assistenti virtuali – è parte di una rete sempre attiva. Anche le app, dai social media alle piattaforme di streaming e di dating, alimentano questa costante interazione digitale in un flusso incessante di notifiche e connessioni virtuali. Essere online non è più una scelta, è la norma.
Le comunicazioni digitali creano l’illusione di una vicinanza che, spesso, non si traduce in legami profondi e davvero intimi. Molti sperimentano una sensazione di vuoto relazionale che la tecnologia prova a colmare con soluzioni sempre più sofisticate come chatbot basati sull’intelligenza artificiale.
Ma possono davvero sostituire l’intimità e la spontaneità di un’interazione faccia a faccia? Fino a che punto i rapporti umani possono essere rimpiazzati da connessioni artificiali? 

Compagnia virtuale: come funzionano gli AI Companions e perché ci affezioniamo a loro

Gli AI Companions (AICs) sono una sottocategoria degli Intelligent Software Agents (ISAs), sistemi di intelligenza artificiale progettati per interagire con gli utenti in diversi contesti. Pur essendo capaci di apprendere e adattarsi, il loro scopo non è necessariamente quello di sostituire le relazioni umane. Assistenti vocali come Siri e Alexa rientrano in questa categoria.
Gli AI Companions nascono invece con l’obiettivo di creare un senso di compagnia e supporto emotivo attraverso la costruzione di legami affettivi resa possibile da un’avanzata personalizzazione, memoria conversazionale e risposte empatiche. Il loro elemento distintivo è proprio la personalizzazione avanzata che permette di definire carattere, voce e persino personalità dell’Intelligenza Artificiale. Questo rende le interazioni su misura, coinvolgenti, e rafforza la sensazione di vicinanza e familiarità.
Il chatbot viene percepito sempre più realistico, fin troppo realistico: alcune persone finiscono per attribuire sentimenti appunto reali a una relazione che, per quanto sofisticata, rimane priva di reciprocità. In alcuni casi questi strumenti diventano la principale fonte di supporto emotivo, e, invece di alleviare la solitudine, finiscono per intensificarla (Jacobs, 2024).
Il pericolo maggiore è la progressiva sostituzione delle relazioni reali con una compagnia virtuale priva di complessità, compromessi e di confronto. L’illusione di reciprocità affettiva e l’attaccamento emotivo che ne deriva rimangono unilaterali, assenti di una reale comprensione e del coinvolgimento empatico di una controparte umana (Maples et al., 2024). 

Intelligenza Artificiale e solitudine digitale: conforto o trappola emotiva?

Gli AI Companions, invece di ridurre la solitudine, la riproducono in una forma digitalizzata. Questo paradosso nasce dall’illusione di compagnia generata da queste tecnologie che simulano empatia senza una vera reciprocità emotiva. Jabobs (2024) definisce digital loneliness una forma di solitudine che si manifesta quando le interazioni virtuali sostituiscono i rapporti umani, proprio come avviene in casi di uso intenso e non regolato di AI companion, soprattutto per soggetti che vivono in isolamento o hanno difficoltà nelle relazioni sociali.
Un aspetto critico della solitudine digitale è il “riconoscimento sociale distorto” (distorted social recognition): gli AI Companions trasmettono sì una forma di riconoscimento ma si tratta di un’illusione piuttosto che di un autentico rispecchiamento sociale. Dato che imitano schemi comunicativi umani, alcuni utenti li percepiscono come empatici, supportivi, partecipi, e sviluppano un attaccamento emotivo che, pur sembrando genuino, manca di una vera reciprocità. Questo modello relazionale unidirezionale può aumentare la vulnerabilità psicologica, causare dipendenza emotiva e desensibilizzazione alle relazioni umane reali (Maples et al., 2024). E questo vale anche per i social media dove l’interazione continua può generare una falsa percezione di socialità che può compromettere la qualità delle relazioni, distorcendo i modelli relazionali e accentuando il senso di isolamento emotivo.

La dipendenza emotiva da AI Companions

L’uso prolungato degli AI Companions può portare a desensibilizzazione emotiva, riduzione della capacità di cogliere le sfumature nelle conversazioni reali, alterazione dell’interpretazione dei segnali non verbali (Jacobs, 2024). Questa progressiva dipendenza può assumere diverse forme: alcuni utenti finiscono per sostituire le interazioni reali con conversazioni artificiali, trovando conforto in un interlocutore che non giudica, non avanza richieste e risponde in modo prevedibile e rassicurante.
Questa dinamica può ridurre la tolleranza alla frustrazione nelle relazioni umane: abituati a interazioni prive di conflitti, gli individui potrebbero faticare a gestire la complessità e le inevitabili difficoltà delle relazioni interpersonali. A lungo termine, l’attaccamento ai chatbot può portare a un drastico calo delle interazioni con persone reali.
Un limite critico degli AI Companions è la loro incapacità di gestire situazioni ad alto rischio. In alcuni casi documentati, l’interazione con un chatbot avrebbe contribuito a decisioni estreme. Nei casi più tragici, persone vulnerabili hanno sviluppato un legame profondo con queste Intelligenze Artificiali, arrivando a percepirle come confidenti prima di compiere gesti estremi (Tiku & Dewitte, 2024).

Etica e regolamentazione: come possiamo usare gli AI Companions in modo sicuro?

Se da un lato chatbot e AI Companions sono un’opportunità per alleviare la solitudine, dall’altro servono linee guida etiche per garantirne un utilizzo sicuro.
Uno dei principali dilemmi riguarda la trasparenza: fino a che punto è lecito rendere un’Intelligenza Artificiale indistinguibile da un essere umano? Quali misure possono prevenire manipolazioni emotive? Qual è il livello di consapevolezza dell’utente circa la loro natura artificiale?
Una possibile soluzione è l’introduzione di avvisi espliciti per ricordare agli utenti che stanno interagendo con un’Intelligenza Artificiale priva di coscienza. Per prevenire la dipendenza emotiva, si potrebbero implementare sistemi di monitoraggio con limiti di tempo e notifiche che incoraggino l’utente a disconnettersi (Maples et al., 2024).
Anche la privacy e la gestione dei dati personali sono temi critici: sebbene normative come il GDPR impongano restrizioni, molte tecnologie operano ancora senza regolamentazioni chiare (Jacobs, 2024).
Ma per garantire davvero un utilizzo etico e sicuro degli AI Companions, è essenziale sviluppare una cultura digitale consapevole, in cui l’Intelligenza Artificiale sia vista come un supporto e non come un surrogato delle relazioni umane. L’Intelligenza Artificiale non sostituisce le relazioni umane ma, se regolamentata con attenzione, può diventare un valido alleato per migliorare la qualità della vita.

Riferimenti Bibliografici
CONSIGLIATO DALLA REDAZIONE
Leggere meglio giocando: come i videogiochi d’azione possono aiutare i bambini con dislessia – Psicologia Digitale

Gli action video games possono aiutare i bambini con dislessia a migliorare la lettura potenziando le funzioni cognitive

cancel