expand_lessAPRI WIDGET

La psicologia ai tempi dell’Intelligenza Artificiale

L'uso dell'intelligenza artificiale nei servizi di salute mentale offre nuove possibilità ma solleva anche questioni più ampie sugli impatti a lungo termine

Di Cristina Peluso, Daniele Allasia

Pubblicato il 22 Mag. 2023

Le applicazioni di intelligenza artificiale incorporate nell’assistenza sanitaria mentale possono portare significative speranze di migliorare la qualità dell’assistenza.

Gli inizi dell’Intelligenza Artificiale

 L’intuizione dell’intelligenza artificiale (IA) nacque già alla fine degli anni ‘30, quando il pioniere del computer Alan Turing ideò una macchina capace, in linea teorica, di manipolare enormi moli di dati memorizzati su un nastro di lunghezza potenzialmente infinita. Tale macchina chiamata successivamente “Macchina di Turing”, attraverso determinati algoritmi sarebbe stata in grado di estrarre dei simboli dalla memoria e di scriverne altrettanti, oltre che di migliorare e correggere automaticamente il proprio funzionamento. Questa scoperta è stata così grandiosa che attualmente tutti i computer in commercio sono basati sull’architettura della Macchina di Turing.

Turing, matematico britannico, sempre con la certezza che in un prossimo futuro si sarebbero potute sviluppare macchine intelligenti, introdusse anche il famosissimo “Test di Turing”. Il test prevede un calcolatore, una persona e solitamente più di un interrogatore. Quest’ultimo, attraverso una tastiera e uno schermo, ha il compito di sottoporre agli altri due componenti previsti, alcuni quesiti di qualsiasi forma e complessità per determinare quale sia l’umano e quale la macchina. Se un numero sufficiente di interrogatori non riesce a distinguere il computer dall’umano la macchina ha superato il test. Ad oggi nessun computer o algoritmo ha superato interamente il test.

Tuttavia, il lavoro di Alan Turing non finisce qui, infatti, negli anni ‘50, il matematico aveva predetto che un calcolatore, un giorno, avrebbe potuto giocare e potenzialmente vincere una partita a scacchi ed effettivamente questo si verificò, seppur molti anni dopo. Nel 1997, il computer Deep Blue, sviluppato da IBM (“International Business Machines”), vinse contro il campione del mondo di scacchi Garry Kasparov.

Sebbene l’esperimento fosse stato molto affascinante, gli esperti del settore commentarono che l’algoritmo alla base di Deep Blue fosse ancora molto lontano dall’essere definito “intelligenza artificiale”: infatti, il suo funzionamento si limitava ad un calcolo delle probabilità, prevedendo ogni possibile mossa dell’avversario (fino a 14 turni nel futuro) ma senza traccia di apprendimento, miglioramento o correzione (Russel et al., 1995).

Definizione dell’IA ed applicazioni pratiche odierne

Oggi esistono diverse definizioni di intelligenza artificiale, ma tutte si rifanno principalmente ai concetti di ragionamento e comportamento. Una macchina, per essere definita “intelligente”, deve essere capace di pensare, prendere decisioni e risolvere problemi come farebbe la mente umana, oltre che di apprendere e migliorare autonomamente azioni che richiederebbero livelli elevati dell’intelligenza caratterizzante l’uomo.

Negli ultimi anni le architetture più efficaci per sviluppare algoritmi di intelligenza artificiale sono le “reti neurali”, ovvero delle reti virtuali ispirate al funzionamento delle reti neurali umane (composte da neuroni e sinapsi).

Tali architetture hanno permesso enormi passi avanti in molti campi, ad esempio nella guida autonoma, che richiede il riconoscimento di oggetti (persone, auto, cartelli, corsie) per facilitare o evitare compiti complessi e pericolosi all’uomo. Le reti neurali hanno anche lo scopo di migliorare la qualità delle fotocamere degli smartphone, che richiedono un’analisi automatica (luci, volti, colori) ma specifica per ogni immagine che si scatta. Inoltre, troviamo reti neurali anche nel riconoscimento del linguaggio e del contesto per sviluppare assistenti vocali in qualsiasi situazione (Russel et al., 1995).

Psicologia ed Intelligenza Artificiale Incorporata: quando i due mondi si intersecano

La ricerca sull’intelligenza artificiale incorporata ha una rilevanza clinica crescente per le applicazioni terapeutiche nei servizi di salute mentale: psichiatria, psicologia e psicoterapia. Le innovazioni spaziano dagli “psicoterapeuti virtuali” (Martinez & Kreitmair, 2018, 32) ai robot sociali negli interventi a supporto della demenza e del disturbo autistico (Gòngora et al., 2018, 27) e robot per disturbi sessuali (Torjesen, 2017, 56-59). Sempre più spesso agenti virtuali e robotici artificialmente intelligenti, non sono solo disponibili per elementi di supporto della salute mentale di livello relativamente basso, come il comfort o l’interazione sociale, ma eseguono anche interventi terapeutici di alto livello precedentemente offerti esclusivamente da personale sanitario altamente qualificato e/o professionisti come gli psicoterapeuti (Inkster et al., 2018, 44). È importante sottolineare che tali “terapeuti virtuali” o “robotici” includono un algoritmo artificialmente intelligente che risponde al paziente, indipendentemente da qualsiasi guida umana esperta, attraverso una presenza virtualmente incarnata come l’icona di un viso.

In quanto tali, queste applicazioni emergenti sono distinte dalle molte varietà di terapia basata sul Web che di solito coinvolgono un terapeuta umano, anche se a distanza (telemedicina), o lo stesso paziente che lavora indipendentemente con questionari o altri materiali di auto-aiuto (Mehrotra et al., 2017, 707-711).

Le applicazioni di intelligenza artificiale incorporate nell’assistenza sanitaria mentale portano significative speranze di migliorare la qualità dell’assistenza (Cresswell et al., 2018, 8-11). Inoltre, consentono di raggiungere popolazioni svantaggiate che necessitano di servizi di salute mentale per migliorare le opportunità di vita nei gruppi vulnerabili. Tuttavia, esiste un divario persistente tra gli attuali e rapidi sviluppi della salute mentale dell’intelligenza artificiale e l’adozione di questi strumenti negli ambienti clinici da parte di operatori sanitari e pazienti, in quanto le loro implicazioni sociali ed etiche richiedono ulteriori indagini per identificare le preoccupazioni pertinenti relative alla fiducia, alla privacy e all’autonomia, nonché per anticipare le preoccupazioni che potrebbero sorgere in futuro (Ienca et al., 2018, 1035-1055). Identificare le più ampie implicazioni etiche e sociali dell’intelligenza artificiale incorporata è fondamentale per negoziare le migliori pratiche di ricerca e medicina nell’assistenza sanitaria mentale innovativa.

I dispositivi psicoterapeutici virtualmente incorporati supportati dall’intelligenza artificiale si stanno attualmente sviluppando a una velocità elevata. Ad esempio, vengono esplorate applicazioni terapeutiche come “Tess” e altre chatbot come “Sara”, “Wysa” e “Wobot”, che funzionano su servizi di messaggistica breve, mentre si consigliano WhatsApp o piattaforme Internet per affrontare la depressione e l’ansia, dotate di presenze schermo-interattive. Woebot ed altri programmi interagiscono con il paziente come uno psicoterapeuta virtuale, con l’obiettivo di aiutarlo a riconoscere le proprie emozioni, schemi di pensiero e sviluppare abilità come la resilienza o tecniche per ridurre l’ansia. Utilizzando l’elaborazione del linguaggio naturale, il programma Tess è capace di riconoscere le espressioni che indicano un disagio emotivo (Sachan, 2018, 322-326).

Gli studi iniziali hanno scoperto che i sintomi della depressione diminuiscono con l’uso di Woebot (Fitzpatrick et al., 2017, 19-23 ) e un altro studio evidenzia che Tess ha contribuito a ridurre la depressione e l’ansia tra gli utenti (Sachan, 2018, 221-224).

Un approccio simile prevede l’uso di avatar, come il “Progetto Avatar”, per affrontare le allucinazioni uditive persistenti nei pazienti con psicosi (Craig et al., 2018, 31-40). Questi avatar sono rappresentati da immagini generate al computer di volti su schermo (di computer o tablet) che interagiscono con il paziente tramite algoritmi intelligenti. L’uso degli avatar viene anche esplorato nel trattamento della schizofrenia, ad esempio, per migliorare l’aderenza ai farmaci (Bain et al., 2017, 18).

Simile a questo progetto, la terapia assistita dalla realtà virtuale per la schizofrenia spesso incoraggia i pazienti a interagire con le voci che sentono attraverso l’uso di un avatar di intelligenza artificiale. Dai primi studi è emerso che la terapia potrebbe aiutare a identificare bersagli terapeutici in casi particolarmente difficili di schizofrenia (Dellazizzo et al., 2018, 878-885) .

Un altro studio ha riscontrato miglioramenti nelle allucinazioni visive-uditive nei sintomi della depressione e nella qualità generale della vita dopo le sessioni di terapia per pazienti affetti da schizofrenia ma resistenti al trattamento farmacologico (Du Sert et al., 2018, 176-181).

Gli “Avatar coach” sono stati impiegati con duplice funzione: da un lato quella di terapeuti, permettendo di trovarsi in una situazione di realtà virtuale immersiva per trattare l’acrofobia (paura dell’altezza), dall’altro come “pazienti virtuali” per fornire agli studenti di medicina pratiche di colloquio particolarmente realistiche (Ohio State University, 2015, 3-5). Infine, gli avatar vengono implementati anche nell’educazione alla prevenzione dei rischi, come il programma Kognito, che utilizza un avatar per aiutare gli studenti universitari e i docenti a identificare il rischio di suicidio nelle persone (Rein et al., 2018, 401-411).

Intelligenza Artificiale nell’area infantile e nella sessualità adulta

Oltre alle precedenti applicazioni terapeutiche virtualmente incarnate, medici e scienziati stanno esplorando innovazioni nell’area dell’intelligenza e robotica nella clinica. Ad esempio, robot intelligenti simili ad animali come Paro (una foca pelosa), vengono sempre più utilizzati per aiutare i pazienti con demenza. Paro, insieme a eBear, fa parte di una classe di “bot compagni”, che interagiscono come assistenti sanitari a domicilio: rispondono a parole e movimenti con un “dialogo” dinamico e cercano di aiutare anziani isolati o pazienti depressi attraverso la compagnia e l’interazione. Diversi studi hanno esaminato il ruolo di tali robot nel ridurre lo stress, la solitudine, l’agitazione e nel migliorare l’umore e le connessioni sociali (Wada & Shibata, 2007, 972-990). Finora, i risultati sono promettenti (Bemelmans et al., 2012, 114-120).

I robot di intelligenza artificiale offrono anche interessanti opportunità in quanto offrono diverse forme di coinvolgimento a bambini che soffrono di disturbi dello spettro autistico (ASD). È stato riscontrato che i bambini con autismo reagiscono positivamente ai robot anche nei casi in cui hanno elevati livelli di difficoltà a interagire con gli altri (Scassellati et al., 2012, 275-294). Il robot Kaspar ha dimostrato un elevato potenziale per l’integrazione negli attuali interventi educativi e terapeutici ed è attualmente allo studio il potenziale per migliorare le abilità sociali tra i bambini. Allo stesso modo, la RoboTherapy è un esempio di robotica socialmente assistita progettata per aiutare i bambini con disturbi dello spettro autistico a sviluppare abilità sociali: il robot Nao è stato progettato per migliorare il riconoscimento facciale ed un’appropriata risposta allo sguardo (Mengoni et al., 2017).

 Lo scopo di tale interazione robotica è quello di apprendere abilità sociali appropriate (ad es. imitarsi, alternarsi, rimanere coinvolti ed empatia), con la speranza che i bambini possano quindi applicare le abilità apprese con il robot alle loro relazioni con i coetanei. Da queste ricerche si sono ottenuti risultati positivi: gli individui con disturbi dello spettro autistico si sono comportati meglio con i loro partner robot rispetto che con i terapeuti umani, hanno risposto con comportamenti sociali nei confronti dei robot e hanno migliorato il linguaggio spontaneo durante le sessioni di terapia. Tuttavia, i dispositivi sono ancora in fase di sviluppo sperimentale e non presentano ancora un uso terapeutico più ampio.

I robot abilitati all’intelligenza artificiale vengono anche esplorati in una varietà di altre aree di salute mentale, inclusi pazienti con disturbi dell’umore e d’ansia, bambini con comportamenti aggressivi e persone che potrebbero non avere una diagnosi specifica ma che trarrebbero comunque beneficio da questo tipo di assistenza (Rabbitt et al., 2015, 35-46).

I robot artificialmente intelligenti sono entrati anche nel campo della sessualità umana. Le aziende ora offrono robot sessuali per adulti come “Roxxxy”, che possono parlare, apprendere le preferenze dei loro partner umani, registrare il tocco e fornire una forma di compagnia intima. Sebbene la gamma di applicazioni mediche che i robot sessuali possono affrontare rimanga dibattuta, queste includono la soddisfazione dei bisogni sessuali di persone disabili e anziane o fanno parte della terapia per problemi come la disfunzione erettile, l’eiaculazione precoce e l’ansia (Sharkey et al., 2017). Inoltre, alcuni ricercatori si sono chiesti se i robot sessuali potrebbero aiutare a ridurre i crimini sessuali come stupri e aggressioni o se potrebbero essere utilizzati per il trattamento delle parafilie, come la pedofilia. Attualmente non si ha ancora risposta a questo importante interrogativo (Torjesen, 2017).

Etica, algoritmi ed effetti a lungo termine

È necessario notare che gli interventi sulla salute mentale dell’intelligenza artificiale funzionano con algoritmi e questi ultimi presentano problemi etici. È stato stabilito che i pregiudizi umani possono essere incorporati negli algoritmi, rafforzando le forme esistenti di disuguaglianza sociale (Tett, 2018, 3-4). Ciò solleva la preoccupazione che i dispositivi per la salute mentale abilitati all’intelligenza artificiale possano anche contenere pregiudizi che hanno il potenziale di escludere o danneggiare in modi non intenzionali, come pregiudizi sessisti o razzisti basati sui dati o pregiudizi prodotti da obiettivi o endpoint concorrenti dei dispositivi (Corea, 2019, 33-41). A seguito di altri appelli alla trasparenza (Powles, 2017), gli algoritmi utilizzati in applicazioni artificialmente intelligenti per scopi di salute mentale potrebbero essere allo stesso modo oggetto di esame. Ciò potrebbe richiedere l’investimento di tempo aggiuntivo per spiegare ai pazienti (e alle loro famiglie) cos’è un algoritmo e come funziona in relazione alla terapia fornita (Fiske & Prainsack, 2019, 37-41). Tuttavia il modo migliore per farlo, in particolare con pazienti con capacità mentali compromesse, richiede ulteriori considerazioni.

Oltre a queste preoccupazioni più immediate, l’implementazione dell’intelligenza artificiale incorporata nei servizi di salute mentale solleva anche una serie di questioni più ampie riguardanti gli impatti a lungo termine sui pazienti, sulla comunità della salute mentale e sulla società in generale. Ad esempio, è stato notato che l’uso a lungo termine degli interventi di intelligenza artificiale potrebbe portare alcuni pazienti o gruppi di pazienti a dipendere eccessivamente da queste applicazioni. Uno studio di Cresswell ha osservato che i robot che mirano ad alleviare la solitudine o a fornire conforto emotivo comportano il rischio che i pazienti con cui lavorano possano diventare dipendenti da loro (Cresswell et al., 2018, 67). Più in generale, altri hanno sollevato domande sui modi in cui i robot potrebbero contribuire a cambiare i valori sociali che circondano l’assistenza o sulle situazioni in cui il caregiving è sempre più “esternalizzato” agli ausilii robotici. L’impatto dei robot intelligenti sulle relazioni, sia uomo-robot che uomo-uomo, è un’area che richiede ulteriori approfondimenti, così come l’influenza circa i potenziali effetti sull’identità, l’agire e l’autocoscienza nei singoli pazienti. In particolare, ad esempio la ricerca sull’efficacia di queste applicazioni deve riguardare non solo la valutazione del miglioramento delle abilità sociali dei bambini con disturbi dello spettro autistico, ma anche la loro capacità di applicare queste abilità alle relazioni con altri esseri umani. Allo stesso modo, se un robot sessuale viene fornito terapeuticamente a un individuo con parafilia, anche gli effetti di ciò sui comportamenti mirati rispetto agli esseri umani devono essere valutati. Esiste il rischio che se gli interventi robotici non sono traducibili in un miglioramento dell’interazione umana, rimangano semplicemente un modo per migliorare le relazioni umane con le macchine, o peggio, uno sbocco che limita ulteriormente le relazioni uomo-uomo. Allo stesso modo, il coinvolgimento con i dispositivi intelligenti incorporati potrebbe anche avere effetti importanti sull’individuo, ad esempio sul senso personale di identità o sull’agire (Bain et al., 2017, 13-17).

L’integrazione dei dispositivi di intelligenza artificiale nella nostra vita quotidiana e nell’assistenza medica sta indubbiamente cambiando le aspettative sociali e le pratiche di comunicazione. Esistono differenze essenziali tra la comunicazione con un dispositivo di intelligenza artificiale e la comunicazione con un altro essere umano. I risultati aneddotici suggeriscono che alcuni utenti parlano spesso con dispositivi di assistenza come Siri o Alexa in un modo più brusco o più rude di quanto non farebbero con un essere umano (Calfee, 2017, 22-25). È importante sottolineare che la percezione dei dispositivi può variare a seconda degli utenti: i bambini spesso comprendono questi dispositivi in ​​modo diverso rispetto agli adulti, a volte attribuendo al dispositivo caratteristiche umane o credendo che il dispositivo contenga un vero individuo al suo interno (Doucleff & Aubrey, 2017, 2-3). Partendo da questo esempio, è chiaro che i modi in cui gli individui interagiscono con le applicazioni di intelligenza artificiale nelle loro vite possono avere implicazioni per la comunicazione e l’interazione sociale. Il modo in cui questo si evolverà man mano che più pazienti avranno l’opportunità di interagire con queste applicazioni come parte della loro assistenza sanitaria/mentale richiede ulteriori indagini empiriche per cogliere tempestivamente le tendenze problematiche e correggerle per lo sviluppo futuro.

Esiste una preoccupazione correlata di oggettivazione per alcune aree delle applicazioni di intelligenza artificiale, come i robot sessuali. L’uso dei “sexbot” è già stato particolarmente controverso: gli studiosi obiettano che la disfunzione sessuale dipende da una serie di fattori fisici, psicologici e socioculturali che sono profondamente relazionali e reciproci. Piuttosto che affrontare i problemi di isolamento associati alla disfunzione sessuale, i robot potrebbero eventualmente aggravarla o contribuire a concezioni riduzionistiche della violenza sessuale (Facchin et al., 2017, 265-268). È stato ipotizzato anche che l’uso di robot sessuali – disponibili anche in modelli infantili o programmati con personalità come “Frigid Farrah” per resistere alle avances sessuali potrebbe invece aumentare il verificarsi di crimini sessuali, normalizzare la produzione di disuguaglianze sociali che circondano lo sguardo maschile (Scheutz & Arnold, 2016, 351-358) e contribuire a incontri sessuali indesiderati. Inoltre, la creazione di robot umanoidi da utilizzare nelle disfunzioni sessuali solleva preoccupazioni sul fatto che potrebbe rafforzare o addirittura legittimare l’oggettivazione degli esseri umani, in particolare i più fragili come donne e bambini.

Quindi l’efficacia dell’uso dell’intelligenza artificiale in molte applicazioni terapeutiche deve ancora essere dimostrato da studi randomizzati e controllati (RCT). Più in generale, le applicazioni dell’intelligenza artificiale incorporata corrono il rischio di implicare una comprensione relativamente ristretta della malattia. Ad esempio, i robot sessuali possono aiutare con alcuni problemi medici ma non affrontano altri determinanti della malattia che dovrebbero essere presi in considerazione da una comprensione bio-psico-sociale della malattia mentale. L’uso diffuso dell’intelligenza artificiale potrebbe quindi esacerbare le tendenze del riduzionismo nella salute mentale (Torjesen, 2017, 139-142).

Conclusioni

In conclusione, le iniziative che integrano l’intelligenza artificiale incorporata nelle pratiche sanitarie devono essere debitamente in sintonia con le esistenti comprensioni culturali del ruolo della tecnologia nelle vite sociali e lavorare per garantire che la fiducia tra paziente e fornitore o tra paziente e sistema sanitario, non venga erosa. Gli agenti di intelligenza artificiale per la salute mentale sollevano domande fondamentali su cosa significhi essere “umani”. Uno dei principali contributi degli studi scientifici e tecnologici è stato quello di mostrare come gli esseri umani non agiscono semplicemente sugli oggetti, ma piuttosto sulle relazioni con gli oggetti che cambiano e trasformano l’attività umana (Latour & Wolgaar, 1986). L’interazione con agenti di intelligenza artificiale incorporati, proprio come l’interazione con altri individui o un terapeuta, può cambiare i comportamenti e la comprensione del mondo. Sebbene le relazioni sociali siano caratterizzate dalla reciprocità, le relazioni con i dispositivi intelligenti non sono né reciproche né simmetriche. In particolare, alcuni hanno sollevato la preoccupazione che interagire maggiormente con agenti artificiali possa portare alcuni individui a impegnarsi meno con le altre persone che li circondano o a sviluppare forme di intimità con robot intelligenti (Melson et al., 2005, 1649-1652), sollevando preoccupazioni specifiche circa l’uso di robot nei bambini o in persone con disabilità intellettiva. Come accennato, le persone sviluppano attaccamenti agli oggetti ed è stato dimostrato che sviluppano anche attaccamenti a sistemi robotici più semplici. Pertanto è probabile che man mano che vengono sviluppati dispositivi più intelligenti e autonomi, le relazioni umane con essi diventino sempre più complesse (Dodig Crnkovic & Çürüklü, 2011).

 

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
CONSIGLIATO DALLA REDAZIONE
Un insolito incontro con l’Intelligenza artificiale, non sempre infallibile
Un incontro spiazzante con l’Intelligenza artificiale

G. M. Ruggiero esprime il suo spiazzamento davanti ad un testo opera di un'intelligenza artificiale che cita un suo presunto articolo, in realtà inesistente

ARTICOLI CORRELATI
Slacktivism: di cosa si tratta? Quando l’attivismo online può diventare dannoso

Sostenere cause sociali tramite l’attivismo online può fornire un aiuto prezioso, ma attenzione allo slacktivism, una forma superficiale e disinteressata di supporto

Lo psicologo negli e-sports

Gli e-sports, progettati con l'obiettivo di competitività, hanno suscitato l'interesse della psicologia per i fattori psicologici coinvolti

WordPress Ads
cancel