Intelligenza artificiale ed empatia
PSICOLOGIA DIGITALE – (Nr. 66) L’intelligenza artificiale può davvero comprendere le relazioni umane?
L’intelligenza artificiale occupa un ruolo sempre più centrale nel dibattito tecnologico e sociale: efficienza e capacità di questi sistemi avanzano a una velocità impressionante. Le tecnologie di ultima generazione non solo replicano le capacità umane, ma in alcuni casi le superano. Grazie all’addestramento su enormi volumi di dati, questi modelli sono in grado di affrontare un’ampia varietà di compiti. La loro capacità di analizzare richieste dettagliate, interpretare il contesto e adattarsi dinamicamente alle necessità degli utenti li rende strumenti versatili. Uno degli aspetti più rilevanti di questi sistemi è la loro capacità di operare senza bias emotivi, un tratto che li rende particolarmente efficaci.
Sebbene la valutazione delle situazioni sociali sia tradizionalmente considerata un’abilità umana fondata su empatia, intuizione ed esperienza, gli sviluppi nell’intelligenza artificiale dimostrano che i chatbot potrebbero eguagliare gli umani anche in questo, riuscendo a comprendere il linguaggio naturale, il tono emotivo e le sfumature delle interazioni. E non si tratta di risposte standardizzate: si adattano e migliorano continuamente attraverso l’apprendimento automatico (Mittelstädt et al., 2024).
Ma sono realmente capaci di cogliere la complessità delle emozioni umane e delle dinamiche relazionali? L’intelligenza artificiale può davvero comprendere e valutare le situazioni sociali con la stessa profondità e sensibilità di un essere umano?
I chatbot IA nella comprensione sociale
Secondo uno studio pubblicato lo scorso anno da Mittelstädt e colleghi (2024), l’intelligenza artificiale sarebbe capace di interpretare situazioni sociali con un’accuratezza sorprendente. È stato usato il Situational Judgment Test (SJT), uno strumento progettato per valutare la capacità di gestire situazioni complesse e competenze come capacità di giudizio, di risoluzione di problemi, l’intelligenza sociale ed emotiva; nel test vengono presentati scenari realistici con diverse opzioni di risposta, tra cui i partecipanti devono scegliere quella che ritengono più appropriata (Kepes et al,2024). I ricercatori hanno confrontato le risposte dei chatbot con quelle degli esseri umani analizzandone la qualità e la coerenza. Per garantire una maggiore validità alla ricerca, sono stati testati cinque chatbot avanzati: Microsoft Copilot, ChatGPT, Claude, Google Gemini e l’assistente intelligente di you.com. Tra questi, Claude ha ottenuto il punteggio medio più alto, seguito da Microsoft Copilot e dall’assistente intelligente di you.com. I risultati hanno evidenziato che i chatbot, in particolare quelli basati su modelli come GPT-4, rispondono in maniera analoga agli esseri umani, riuscendo a riconoscere schemi comportamentali e proporre soluzioni efficaci a problemi relazionali (Mittelstädt et al., 2024). Sembra quindi che i chatbot basati su modelli linguistici avanzati possiedano una competenza sociale più sofisticata di quanto si possa pensare; eppure altre ricerche mostrano risultati contrastanti.
Chatbot IA e comprensione sociale: simulazione o realtà?
Risultati opposti vengono mostrati in uno studio pubblicato solo pochi mesi prima. Wang et al. (2024) hanno valutato le competenze sociali attraverso due compiti specifici: il “Ragionamento Inverso” e la “Pianificazione Inversa”. Entrambi sono metodi per valutare l’intelligenza sociale e la capacità di comprendere comportamenti complessi: il primo consiste nel dedurre le intenzioni o motivazioni di qualcuno a partire dalle sue azioni, mentre il secondo implica determinare quale situazione iniziale avrebbe potuto portare a un determinato piano o risultato. Mentre i modelli GPT hanno mostrato una comprensione dell’intelligenza sociale limitata al livello più basilare, gli esseri umani operano a livelli significativamente più avanzati (Wang, 2024). Ciò è dovuto al fatto che quello che consideriamo come capacità di cogliere sfumature sociali è in realtà il risultato della capacità dei modelli di individuare pattern ricorrenti e di trovare scorciatoie cognitive. Non si tratterebbe, quindi, di una vera intelligenza sociale paragonabile a quella umana quanto di una simulazione, seppur estremamente accurata.
C’è da considerare poi che una limitazione dei chatbot è la loro incapacità di possedere una comprensione esperienziale. Questa mancanza compromette l’efficacia in molti contesti, come ad esempio in situazioni in cui il linguaggio del corpo e il non verbale sono elementi determinanti.
Il punto di vista degli utenti
Nelle interazioni sociali propriamente dette, due o più individui comunicano, si influenzano reciprocamente e costruiscono relazioni attraverso scambi di informazioni, emozioni o comportamenti. Ci sono regole sociali condivise, contesti culturali e segnali verbali e non verbali; lo diamo per scontato ma sono davvero molti gli elementi che determinano un’interazione sociale valida, soddisfacente, significativa.
Sistemi basati su intelligenza artificiale sono sempre più abili nel simulare interazioni umane; sempre di più poi gli utenti tendono ad attribuirle qualità umane, ad antropomorfizzare le tecnologie. Siamo nell’ambito della AI-Mediated Communication (AI-MC, comunicazione mediata dall’intelligenza artificiale). Ma qual è la percezione degli utenti? Cosa rende una risposta davvero positiva? Quali sono le loro aspettative? Quello che fa la differenza è la qualità della risposta: deve essere pertinente, appropriata, personalizzata in base all’input dell’utente. Risposte di questo tipo fanno sentire le persone validate emotivamente, oltre a fornire informazioni e alimentare lo scambio (Rheu et al., 2024). L’intelligenza artificiale sta trasformando le interazioni digitali: viene definita “economia dell’intimità mediata dall’IA” (AMIE) ad indicare come l’intelligenza artificiale non è solo un mezzo di comunicazione ma crea vere e proprie esperienze intime e personalizzate grazie all’analisi di dati emotivi e psicologici (Chen et al., 2024). Quello che dovremmo chiederci è se questa nuova forma di connessione digitale sia davvero autentica; cosa è davvero interazione sociale? Il pensiero critico, altra capacità del tutto umana, può aiutarci affinché l’intelligenza artificiale rimanga uno strumento da utilizzare in modo consapevole e responsabile.