expand_lessAPRI WIDGET

Implicazioni etiche e sociali nell’uso dell’AI nella pratica clinica

L’intelligenza artificiale (AI) sta assumendo sempre maggior rilevanza nella pratica clinica e nella ricerca: implicazioni cliniche, etiche, socialI

Di Chiara Cilardo

Pubblicato il 05 Mar. 2021

L’intelligenza artificiale (AI) nella pratica clinica sta acquisendo sempre maggiore importanza: le sue applicazioni nel campo di psichiatria, psicologia e psicoterapia variano da ‘psicoterapeuti virtuali’ ai robot sociali, offrendo in parte o totalmente servizi di cura e supporto fino a poco tempo fa riservati esclusivamente a professionisti opportunamente qualificati. 

PSICOLOGIA DIGITALE– (Nr. 18) Implicazioni etiche e sociali nell’uso dell’AI nella pratica clinica

 

Prima di addentrarsi in alcune riflessioni sui benefici e sulle implicazioni etiche coinvolte vale la pena soffermarsi su alcune definizioni. Infatti, l’AI include agenti “virtuali” o “robotici” ‘animati’ da algoritmi che operano indipendentemente da qualsiasi guida umana attraverso interfacce con presenze virtuali, come l’icona di un volto, o fisicamente incarnate, come robot.

Fiske e colleghi (2019) hanno condotto un’analisi della letteratura sugli aspetti etici e sociali legati all’uso in ambito clinico delle applicazioni AI nella pratica psichiatrica, psicologica e psicoterapica. Nella rassegna sono prese in considerazione le AI che interagiscono con i pazienti o che hanno una presenza virtuale o interfaccia robotica, non quelle fruite ‘passivamente’ dal paziente e gestite dal terapeuta.

App, avatar e robot: AI per la clinica

Le intelligenze artificiali a disposizione dei clinici sono di diversa natura. Quello che unisce tutte queste tecnologie è la presenza di algoritmi altamente avanzati in grado di simulare e riprodurre diverse funzioni motorie, come movimento di arti o oculare, ma anche simulare linguaggio grazie al natural language processing. Allo stato attuale possiamo suddividerle in tre macrocategorie: app e bot; avatar; robot.

App e bot vanno da applicazioni base con messaggistica istantanea ad agenti interattivi. Applicazioni come Tess, Wysa e Woebot (Gionet, 2019; Inkster et al., 2018; Fulmer et al., 2018; Fitzpatrick et al., 2017) sono in grado di rilevare, segnalare e spiegare espressioni di disagio emotivo. Possono spiegare agli utenti in termini clinici ciò che stanno vivendo e fornire consigli, aiutando i pazienti a riconoscere le loro emozioni e schemi di pensiero e a sviluppare abilità o tecniche per ridurre ansia o sintomi depressivi.

Per quanto riguarda gli avatar, si tratta di solito di figure generate dal computer che interagiscono col paziente. Sono utilizzati nel trattamento di alcuni disturbi come psicosi, schizofrenia, depressione e fobie. Per fare alcuni esempi Kognito (Benjamin et al., 2018) viene utilizzato nell’educazione alla prevenzione del rischio suicidario mentre il Progetto Avatar (Craig et al., 2018) nel trattamento delle allucinazioni uditive e visive persistenti nei pazienti con psicosi. Esistono poi gli ‘avatar coach’, impiegati come parte di una realtà virtuale immersiva che danno istruzioni e supportano il paziente nella sua esperienza.

Abbiamo poi i cosiddetti “robot da compagnia”, robot simili ad animali, come la foca Paro (Hung et al., 2019) e l’orso eBear (Kargar e Mahoor, 2017), che si muovono, rispondono a stimoli come carezze, girano la testa se chiamati e, stimolando così le interazioni, favoriscono la riduzione di sintomi depressivi o di stress soprattutto con pazienti anziani o isolati. Vengono utilizzati con successo anche nei training per l’acquisizione di abilità sociali (ad esempio, imitazione, prendere i turni in una conversazione), in pazienti con sindrome dello spettro autistico in modo che possano sperimentarle e poi generalizzarle nelle relazioni con umani. Il robot Kaspar (Wood et al., 2019) o i RoboTherapy (Libin e Libin, 2003), per esempio, sono utilizzati per lo sviluppo di abilità sociali, mentre il robot Nao è progettato per migliorare il riconoscimento facciale e la risposta allo sguardo (Andreasson et al., 2018). I robot da compagnia sono utilizzati anche come parte della terapia per problemi sessuali come la disfunzione erettile e l’eiaculazione, come ad esempio, il robot Roxxxy della TrueCompanion (2010), che ha ricettori sensibili al tocco e può muoversi e parlare.

Accessibilità, privacy e fiducia

Gli interventi con AI sono efficaci per molti motivi.

Il terapeuta virtuale o robot è sempre accessibile, 7 giorni su 7 e 24 ore su 24, nella privacy della propria casa o da remoto, in luoghi isolati o rurali o comunque in contesti dove i servizi sono scarsi o poco reattivi. Possono fornire almeno dei servizi di base di cura che sarebbero altrimenti assenti o insufficienti dando l’opportunità di colmare e raccogliere bisogni sanitari insoddisfatti.

Le applicazioni AI possono integrare i servizi esistenti o costituire un punto di ingresso per interventi clinici standard. Possono essere utilizzate per riconoscere in fase embrionale l’insorgere di problemi di salute e situazioni di disagio o servire da supporto in casi lievi e condizioni non acute. Un altro importante vantaggio delle applicazioni AI è che consentono al paziente di autogestirsi dandogli autonomia e alleggerendo il carico di lavoro dei servizi, troppo spesso oberati. Le AI possono incrementare la fiducia nella terapia e in generale nei clinici: i pazienti, sgravati da sentimenti di vergogna ed imbarazzo o con scarsa alfabetizzazione, possono accedere in autonomia e col loro ritmo di apprendimento alle informazioni e a familiarizzare con la cura e la terapia.

Trasparenza, formazione, eticità

Le AI sono degli artefatti costruiti da umani per umani; per questo motivo possono essere soggette ad errori e malfunzionamenti. Dal punto di vista puramente tecnico, potrebbero non funzionare o operare in un modo non previsto; per questo motivo in futuro questi dispositivi dovrebbero essere validati attraverso processi rigorosi allo stesso modo degli altri dispositivi medici tradizionali.

Al momento non sono presenti standard chiari nemmeno sulle questioni riguardanti privacy e gestione dei dati raccolti: si tratta di dispositivi che raccolgono e comunicano informazioni personali oltre ad altri dati come movimenti, interazioni, abitudini, in alcuni casi anche video. Anche questo aspetto sarà da considerare nel futuro prossimo. Nella creazione di agenti interattivi un altro potenziale rischio è quello dei bias che potrebbero rafforzare stereotipi e pregiudizi: pensiamo ad esempio se nella creazione di un avatar si facesse riferimento sempre e solo a un genere e una razza.

Un altro punto da approfondire è la mancanza di linee guida e di formazione: ricerca e pratica clinica non vanno di pari passo poiché lo sviluppo di tecnologie si muove molto rapidamente. Per questo motivo non sono ancora disponibili linee guida e normative chiare e univoche; i documenti Moral Responsibility for Computing Artifacts: The Rules (Grodzinsky et al., 2012) e An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles and Recommendations (Floridi et al., 2018) sono un primo tentativo di strutturare raccomandazioni condivise.

Infine, esistono dei rischi etici: nel lungo termine i pazienti potrebbero sviluppare dipendenza invece che generalizzare le competenze acquisite all’interazione uomo-uomo; ancora, esiste il rischio concreto che possano essere manipolati. Nel rapporto uomo-macchina, infatti, si parla di “sospensione dell’incredulità”: quando un agente viene antropomorfizzato le persone tendono ad essere più accondiscendenti rispetto a quando è un umano a fare una richiesta. Le implicazioni sono evidenti: popolazioni vulnerabili, come bambini, persone anziane o con una disabilità cognitiva, potrebbero non essere in grado di capire cos’è o cosa fa un robot, oppure potrebbero supporre che “dall’altra parte” ci sia un clinico che supervisiona tutto. Al professionista spetta il compito di informare e valutare che il paziente abbia compreso appieno il funzionamento dell’applicazione e che questa non è direttamente guidata da un umano.

Ma non è l’unica responsabilità del clinico. Nel caso in cui un paziente mostri di essere una minaccia per se stesso o per altri ha il dovere di informare le autorità; ma cosa succede se, per esempio, è un bot a rilevare che un individuo è ad alto rischio di suicidio? Un clinico valuta anche altri indizi contestuali che difficilmente un’AI, per quanto avanzata, riesce a cogliere simultaneamente.

Cosa vuol dire essere umani: l’importanza della relazione

Abbiamo app con cui parlare e che ci rispondono in tempo reale, avatar che ci aiutano nella realtà virtuale, robot da coccolare che ci fanno compagnia. Cosa manca all’AI per essere umana? In un rapporto terapeutico alcuni aspetti chiave della relazione non sono riproducibili virtualmente. Primo fra tutti la reciprocità: i pazienti condividono col clinico pensieri ed emozioni in un contesto co-costruito; le relazioni con i dispositivi intelligenti non sono né reciproche né simmetriche. La relazione terapeutica è unica e irripetibile, mentre le AI sono create per avere le stesse reazioni a stimoli simili. Ci sono differenze fondamentali tra la comunicazione uomo-AI e la comunicazione uomo-umano. La percezione dei dispositivi può variare: per esempio, i bambini a volte attribuiscono caratteristiche umane ai dispositivi o credono che siano animati da persone reali.

Reciprocità e unicità della relazione sono funzionali ad una comprensione bio-psico-sociale che prende in considerazione fattori fisici, psicologici e socioculturali. Uno dei limiti dell’AI, almeno per come la conosciamo ad oggi, è la visione riduzionista, relativamente ristretta del disturbo e della persona. Per esempio, è possibile occuparsi di problemi specifici senza però inquadrare altri fattori determinanti che dovrebbero essere presi in considerazione.

Sicuramente molto lavoro andrà fatto per approfondire limiti e opportunità. La tecnologia digitale è parte integrante della nostra quotidianità e lo sarà sempre di più; l’adozione di questi strumenti non può prescindere da considerazioni sociali, cliniche ed etiche da parte di tutta la comunità di clinici e professionisti.

 


PSICOLOGIA DIGITALE
scopri le novità sull’argomento grazie ai report e ai poster dalla prima Conferenza Europea di Psicologia Digitale:

ECDP 2021 - Report dal Congresso - Main (1)REPORT DAL CONGRESSO

 

POSTER DAL CONGRESSO

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
CONSIGLIATO DALLA REDAZIONE
Lo psicologo del futuro 1600x900
La Psicologia Digitale – Lo psicologo del futuro

La Psicologia Digitale o Cyberpsicologia studia in che modo e in che misura gli sviluppi tecnologici comportano variazioni sociali, psicologiche e mentali

ARTICOLI CORRELATI
Slacktivism: di cosa si tratta? Quando l’attivismo online può diventare dannoso

Sostenere cause sociali tramite l’attivismo online può fornire un aiuto prezioso, ma attenzione allo slacktivism, una forma superficiale e disinteressata di supporto

Lo psicologo negli e-sports

Gli e-sports, progettati con l'obiettivo di competitività, hanno suscitato l'interesse della psicologia per i fattori psicologici coinvolti

WordPress Ads
cancel