expand_lessAPRI WIDGET

La psicoterapia nello sviluppo delle intelligenze artificiali – Psicologia Digitale

Integrare tecniche di psicoterapia nella creazione di intelligenze artificiali può renderle più sicure e affidabili producendo effetti positivi

Di Chiara Cilardo

Pubblicato il 16 Giu. 2023

I chatbot di intelligenza artificiale (IA) si fondano su modelli di linguaggio di grandi dimensioni (large language models, LLM) alimentati da una enorme mole di dati. La loro vera forza però è che continuano ad apprendere quando interagiscono.

PSICOLOGIA DIGITALE – (Nr. 40) La psicoterapia nello sviluppo delle intelligenze artificiali 

 Quando “parliamo” con un chatbot avanzato, quello che scriviamo è un’ulteriore fonte di apprendimento che va ad aggiungersi ed integrarsi con i dati già noti e con quelli presi online in tempo reale.

Negli ultimi mesi milioni di utenti hanno potuto conversare con i chatbot come ChatGPT di OpenAI e Bing Chat di Microsoft; è stupefacente il grado di accuratezza delle informazioni e la somiglianza con un dialogo umano.

Come costruire una buona IA

Non bisogna dimenticare che si tratta di una simulazione: per quanto assimilabile al linguaggio umano rimane pur sempre una tecnologia.

Il fatto che, per esempio, possano rispondere in maniera empatica non vuol dire che provino realmente empatia. Inoltre, le risposte dipendono in larga parte dai dati con i quali sono state addestrate e potrebbero quindi riflettere pregiudizi e bias.

Per questo è importante sviluppare intelligenze artificiali allineate con standard di sicurezza, affidabilità ed eticità, che siano trasparenti e tutelino la privacy degli utenti.

L’ideale è adottare un approccio incentrato sull’uomo e non solo sullo sviluppo di sistemi sempre più complessi e avanzati dal punto di vista tecnico.

In tutte le fasi, dalla progettazione e sviluppo al monitoraggio e valutazione, bisogna tener conto di cos’è davvero la comunicazione umana, quali sono le norme in un dato contesto, quali le reazioni che potrebbero avere gli utenti e l’impatto generale di un dialogo con un chatbot. Nella comunicazione umana le risposte dipendono anche dal contesto più ampio ed è necessaria la comprensione delle sfumature più sottili.

Addestrare l’IA con la psicoterapia

Attraverso numerose pratiche e tecniche un terapeuta può aiutare i pazienti a superare difficoltà e sviluppare strategie più adattive, efficaci e sane. A prescindere dallo specifico orientamento che indirizza il trattamento, il dialogo è una risorsa imprescindibile di qualsiasi psicoterapia.

Lin e colleghi (2023) propongono di addestrare le intelligenze artificiali come fossero pazienti con i quali lavorare sulle aree carenti.

Un approccio basato sulla psicoterapia potrebbe portare allo sviluppo di IA centrate sull’uomo ed in grado di comprendere meglio l’esperienza umana, migliorarne le abilità comunicative, l’intelligenza emotiva, l’empatia, diminuire il rischio che si presentino pregiudizi, stereotipi e altri tipi di bias.

Nel loro studio hanno mostrato un esempio di come ciò si potrebbe realizzare. Gli autori hanno infatti progettato SafeguardGPT, un sistema che consente di lavorare su software già esistenti, come ChatGPT, e implementare nuove funzionalità.

SafeguardGPT utilizza tecniche di psicoterapia e apprendimento per rinforzo per correggere risposte non adeguate e migliorare le capacità di comunicazione. Il terapeuta (reale o virtuale) invita il chatbot a riflettere e modulare gli output sulla base di più elementi presenti nel dialogo in un circuito di feedback continuo.

Direzioni future

Esistono molti chatbot che utilizzano modelli linguistici; con l’evolversi di questi modelli diventerà sempre più difficile prevedere come verranno elaborate le risposte.

Per migliorarne le prestazioni si potrebbe addestrare l’intelligenza artificiale su set di dati molto ampi che comprendano anche, per esempio, trascrizioni di sessioni di terapia o indicazioni su specifici profili neurologici e psicologici, in modo da alimentare framework come SafeguardGPT e avere output più attendibili. Inoltre, in futuro è auspicabile utilizzare tecniche di feedback più avanzate come quelle multi-agente, in cui il circuito di feedback viene alimentato da più interazioni cooperative tra più agenti IA (Graber-Stiehl, 2023; Lin et al., 2023).

Sebbene il modello SafeguardGPT sia un contributo nuovo e interessante, c’è molta strada da fare perché i chatbot siano davvero affidabili e responsabili.

Soprattutto, perché siano realmente incentrati sull’uomo e non sul riprodurre caratteristiche e modalità umane.

Quello che sappiamo è che sono strumenti con infinite potenzialità in molti campi; sappiamo anche però che le persone tendono ad antropomorfizzare le macchine e che le loro esperienze dipendono in gran parte dalle loro aspettative nei loro confronti.

Ricordiamoci insomma che una tecnologia è solo una tecnologia.

 

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
CONSIGLIATO DALLA REDAZIONE
Intelligenza artificiale, relazioni emotive e romantiche - Psicologia Digitale
Avere una relazione con un’intelligenza artificiale – Psicologia Digitale

Create per simulare conversazioni realistiche, le intelligenze artificiali in alcuni casi finiscono per sostituire le relazioni con umani

ARTICOLI CORRELATI
I software di trascrizione basati sull’intelligenza artificiale nelle sedute di psicoterapia – Psicologia digitale

Esistono software basati sull’intelligenza artificiale che trasformano file audio in testo, utili per la trascrizione delle sedute di terapia

L’utilizzo del Machine Learning nell’ambito della salute mentale

Gli algoritmi di Machine Learning permeano una vasta gamma di settori nella società, e possono fornire contributi anche alla salute mentale

WordPress Ads
cancel