Chatfishing: la relazione delegata all’algoritmo
PSICOLOGIA DIGITALE – (Nr. 82) Chatfishing e app di dating: l’amore mediato dagli algoritmi
Il panorama degli incontri online sta cambiando rapidamente. Le app nate per semplificare le possibilità di conoscersi hanno introdotto nuove forme di interazione, ma anche nuove incertezze su chi ci sia realmente dall’altra parte dello schermo. Se un tempo il principale rischio era quello di imbattersi in qualcuno che fingesse un’identità o un aspetto, il cosiddetto “catfishing”, oggi sta emergendo un fenomeno: il “chatfishing”. Non si tratta di inventare un personaggio fittizio, ma di delegare all’intelligenza artificiale la gestione della relazione, lasciando che sia un chatbot a scrivere messaggi e sostenere l’interazione al posto nostro (Lee, 2025).
Questo cambiamento non riguarda più solo l’immagine che presentiamo agli altri, ma il modo stesso in cui costruiamo la comunicazione e quindi il rapporto (Béchard, 2025). Ciò che l’altro percepisce come espressione personale può essere, in realtà, una mediazione algoritmica non dichiarata.
Che cos’è il chatfishing?
Il chatfishing consiste nell’utilizzare l’intelligenza artificiale per guidare, migliorare o sostituire le conversazioni con potenziali partner nelle app di incontri o su altri canali digitali (Lee, 2025). A differenza del catfishing, non si costruisce un’identità falsa: è la comunicazione a essere esternalizzata. La persona rimane la stessa ma a parlare per lei è un algoritmo. Per alcuni utenti l’intelligenza artificiale rappresenta un semplice supporto, utile a trovare le parole giuste quando mancano tempo o sicurezza. Per altri, diventa un sostituto quasi totale: è la tecnologia a mantenere viva la relazione, a creare continuità emotiva e a generare interesse con risposte puntuali e ben calibrate (Jones, 2025). Il punto critico riguarda la chiarezza comunicativa: chi riceve quei messaggi può attribuirli alla persona con cui sta parlando, senza rendersi conto che una parte della conversazione è stata generata dall’intelligenza artificiale. Ne deriva una rappresentazione della relazione che non sempre riflette con precisione l’effettivo coinvolgimento delle persone coinvolte.
Perché il chatfishing sta esplodendo ora?
Il chatfishing si sta diffondendo in un momento in cui l’intelligenza artificiale generativa è diventata facilmente accessibile e integrata negli strumenti di comunicazione quotidiana. I modelli linguistici sono ormai in grado di produrre messaggi credibili e coerenti con i codici conversazionali delle app di incontri rendendo semplice delegare all’algoritmo parte dell’interazione (Béchard, 2025). A questo si aggiunge un contesto relazionale caratterizzato da stanchezza e pressione competitiva. La “dating fatigue” spinge molti utenti a semplificare l’investimento emotivo richiesto dai primi scambi, mentre il timore del rifiuto porta a cercare soluzioni che riducano il rischio di esporsi personalmente. In parallelo, la percezione di dover mantenere uno standard comunicativo sempre brillante supporta l’idea di un aiuto esterno che permetta di apparire più sicuri e interessanti (Jones, 2025).
Vista così, l’intelligenza artificiale viene utilizzata come strumento per rendere la comunicazione più fluida e per gestire con minor effort i primi scambi cosa che, di per sé, potrebbe anche non essere negativa. Il problema nasce quando vi è una discrepanza tra percezione e realtà: il risultato ottenuto rappresenta davvero chi siamo o solo una versione artificiale che speriamo venga accettata?
L’intelligenza artificiale è davvero una versione migliore di noi stessi?
Jones (2025) evidenzia come il chatfishing nasca spesso dall’incontro tra insicurezza e ricerca di efficienza: l’intelligenza artificiale viene inizialmente utilizzata per superare la difficoltà di avviare una conversazione, ma può diventare un sostituto abituale quando si scopre che la “versione assistita” di sé stessi ottiene risposte più positive. La spontaneità viene così progressivamente messa da parte, mentre la tecnologia assume il ruolo di intermediario nella costruzione della relazione.
Secondo Lee (2025), il problema emerge con chiarezza nel passaggio dal digitale all’incontro dal vivo. Una persona percepita come brillante e presente via chat può apparire molto diversa nell’incontro in presenza, mostrando un livello di partecipazione emotiva che non corrisponde alle aspettative create dall’intelligenza artificiale. La delusione riguarda non solo l’altro ma anche la fiducia nel proprio giudizio: un legame che sembrava promettente può rivelarsi basato quasi esclusivamente sull’intervento dell’algoritmo e non sulla reale compatibilità tra le persone coinvolte.
Le conseguenze emotive e relazionali
Il chatfishing non sempre nasce da un intento volontariamente ingannevole. Molti utenti ricorrono all’intelligenza artificiale per migliorare il proprio modo di comunicare o per superare l’imbarazzo dei primi scambi. Tuttavia, come osserva Lee (2025), la distinzione tra supporto e manipolazione dipende dalla trasparenza: se l’interlocutore non è consapevole del ruolo della tecnologia, il rapporto rischia di essere costruito su una rappresentazione non autentica. Béchard (2025) sottolinea che questa ambiguità sposta il “test di Turing” dall’ambito tecnico a quello relazionale: la difficoltà nel riconoscere ciò che è umano da ciò che non lo è non riguarda soltanto le capacità dell’intelligenza artificiale, ma anche il bisogno di sentirsi compresi e desiderati da qualcuno. Le conseguenze non sono trascurabili. Chi scopre di essere rimasto coinvolto in una relazione sostenuta dall’intelligenza artificiale può provare frustrazione, perdita di fiducia e un senso di errore nel valutare l’altro. Allo stesso tempo, chi utilizza stabilmente l’intelligenza artificiale rischia di affidarle parti cruciali della propria capacità relazionale, riducendo l’esposizione emotiva e la disponibilità ad affrontare quelle incertezze che caratterizzano gli scambi reali.
Una nuova forma di intimità ibrida
Il chatfishing è un indicatore del cambiamento in corso nelle forme di intimità digitale. Le piattaforme di incontri stanno progressivamente integrando strumenti di intelligenza artificiale che semplificano lo scambio comunicativo e riducono l’esposizione personale, fino a poter sostituire la partecipazione diretta dell’utente (Béchard, 2025). Se questa dinamica dovesse normalizzarsi, la percezione del confine tra autenticità e mediazione tecnologica potrebbe modificarsi: ciò che oggi potremmo considerare una forma di inganno potrebbe diventare una pratica socialmente accettata. Resta però un rischio evidente. L’automatizzazione delle conversazioni riduce proprio quegli elementi come incertezza, imperfezione, vulnerabilità, che permettono di riconoscere nell’altro un interesse genuino. Le interazioni supportate dall’intelligenza artificiale possono risultare più scorrevoli e prive di difficoltà nelle fasi iniziali, ma questa fluidità non sempre corrisponde a una reale continuità della relazione quando ci si incontra di persona.
Insomma, l’intelligenza artificiale può aiutarci a rompere il ghiaccio: il resto, per fortuna, dobbiamo ancora mettercelo noi.