Centri Clinici

Robotics and AI – Report dall’European Conference on Digital Psychology – ECDP 2021

Un robot rappresenta un reale strumento di aiuto, un’affordance, in cui il bambino ha modo di sperimentare in “sicurezza” l’interazione sociale

ID Articolo: 183281 - Pubblicato il: 22 marzo 2021
Robotics and AI – Report dall’European Conference on Digital Psychology – ECDP 2021
Messaggio pubblicitario SFU 2020
Condividi

Un robot può fornire maggiori opportunità di inclusione tra bambini autistici e neurotipici, così da “ammortizzare” l’impatto di questo disordine e di tutti i residui che esso porta nell’età adulta.

Introduzione

Messaggio pubblicitario L’educazione è tale quando intercetta il fondamento dell’individuale processo di sviluppo e si inserisce come elemento di esplicazione e conforto.

La scuola rappresenta la principale piattaforma per svolgere tale processo, in cui l’educazione ha il significato di far coincidere la realtà dell’alunno con il “vero e migliore se stesso”. Quando la scuola attua questa fondamentale coincidenza, l’alunno ne ripaga gli sforzi educativi, a patto che non siano presenti impedimenti o fattori condizionanti, come i disordini del neurosviluppo.

Esistono patologie, come l’autismo, che “nascondono” il bambino dalla realtà sociale e limitano la flessibilità dei suoi comportamenti o interessi.

Difficilissimo il compito attuale della scuola, improntata in uno squisito “umanesimo tecnologico”; rispetto al passato, essa non ha solo in mano l’oro da lavorare in monile (l’alunno), ma addirittura la miniera da sfruttare (le nuove tecnologie).

I bambini con disturbi del neurosviluppo sono stati da sempre il ritratto del chiaroscuro piuttosto che della luce. L’affinamento degli interventi educativi – nonché i progressi tecnologici – sono in grado di accendere i riflettori su questa realtà e rendere probabile la precitata, fondamentale, “coincidenza”. (Dato che il buon alunno, autistico o neurotipico, non è certo tale né per pavore o per mera accondiscendenza né per solo dovere: è, invece, quello che, nell’agire così come agisce, “sente di non voler fare altrimenti”).

In passato, le prospettive educatore/alunno entravano spesso in conflitto tra loro: l’insegnante, autisticamente, pontificava dalla rocca della propria autorità, non ponendosi da un punto di vista altrettanto autistico, qual era di chi veniva de-finito “diverso”. A contorno l’atteggiamento ricattatorio dei genitori messi di fronte alle mancanze dei figli affinché, sollecitati oltremodo, potessero allinearsi alla realtà comune. Ne conseguivano spersonalizzazione, umiliazione e sfiducia (un fenomeno ormai estinto?).

La manipolazione dell’ambiente, con interventi da parte dell’educatore e di un robot, consente di agire, nel migliore dei modi, sulla zona di sviluppo prossimale (dato che il bambino “ingoia”, interiorizza, l’ambiente), biforcando una realtà confusa – e molto spesso sofferente –  verso un’altra condizione.

Robot sociali e Condizione dello spettro autismo

Per tale motivo, durante la European Conference on Digital Psychology, particolarmente significative sono state le parole del Dott. Davide Ghiglino (Imm.1), ricercatore nel team Social Cognition in Human-robot Interaction dell’Istituto Italiano di Tecnologia (IIT) che, evadendo dal monopolio linguistico psichiatrico, preferisce adottare il termine di condizione dello spettro autistico, piuttosto che di disordine o disturbo.

Robot intelligenza artificiale e disturbi del neurosviluppo Report ECDP Imm 1

Imm. 1 Dott. Davide Ghiglino

Sempre Ghiglino, spiega come sia difficile per i soggetti autistici percepire le caratteristiche globali di un’informazione. Nella fattispecie, l’esperienza percettiva di questi individui viene descritta come frammentata e disorganizzata, un’elaborazione “pezzo per pezzo” (e.g. problemi del linguaggio a livello lessicale e semantico). Sul piano sociale ne deriva l’incapacità di percepire componenti irrilevanti. In altri termini è compromessa la capacità di comunicare socialmente e, quindi, interagire con altri: avviare un’interazione e mantenerla. Happé, citato da Ghiglino, si riferisce ad una «coerenza centrale debole» (per una rassegna si consulti la bibliografia).

Sotto tale profilo, un robot rappresenta un reale strumento di aiuto, un’affordance, in cui il bambino sperimenta in “sicurezza” l’interazione sociale in un sistema sprovvisto di tutti i limiti di noi esseri umani: incertezze, dubbi, giudizi, stanchezza e via dicendo. Ed è proprio questa attività comportamentale del robot, pura ed efficace, che trova un punto di forza: la ripetizione di specifici comportamenti “addestra” l’individuo nella relazione, anche se, bisogna sottolinearlo, la presenza dell’operatore (educatore o terapeuta) è fondamentale per supervisionare tale circostanza e generare nel tempo un approccio individuale per ogni bambino (L’istruzione non va mai confusa con l’educazione!). Dunque, capire il punto di vista dell’Altro, migliorando così le abilità di cognizione sociale.

Altresì, nel momento dell’interazione, è possibile fornire un feedback caricaturale, negativo o positivo, in modo da affinare i propri comportamenti.

Peculiarità del robot è quella di mettere in atto un’interazione “fisica”, in modo da svolgere numerosi compiti concreti, come quelli riferiti alla manipolazione di oggetti da parte del robot e la contestuale rotazione mentale del bambino. Non dimentichiamo il coinvolgimento emotivo di collaborare con un robot, che non solo motiva i bambini nei compiti ma permette loro di condividere l’esperienza e creare ulteriori opportunità di comunicare.

Robot, strumenti per le relazioni nella scuola inclusiva

Il Dott. Lorenzo Desideri (Imm. 2), psicologo clinico, del dipartimento di Psicologia “Renzo Canestrari”,  nell’esplorare le tecnologie emergenti, parla dei robot quali strumenti utili durante i processi educativi dei bambini con disordini del neurosviluppo.

Robot intelligenza artificiale e disturbi del neurosviluppo Report ECDP Imm 2

Imm. 2 Dott. Lorenzo Desideri

La domanda che si pone è la seguente: «Può essere utilizzato un umanoide per coinvolgere i bambini autistici in un contesto scolastico inclusivo?»

Semplice ma formidabile osservazione: allineare le ultime scoperte della pedagogia e della didattica con quelle della robotica sociale.

In altri termini, il robot può offrire la garanzia, reale e testabile, di supporto per gli stakeholder nel contesto scolastico?

Il tentativo è di creare un fertile accordo e di riuscire nell’intento con una partnership tra i ricercatori della robotica sociale e gli educatori/insegnanti.

Desideri si concentra particolarmente sull’interazione bambino-robot: una connessione tra «robotica sociale» e «scuola inclusiva». (Inclusione è termine che rimanda a “integrazione”, riferendosi al contesto: viene messo in rilievo ogni diversa abilità del bambino per “creare punti di convergenza nelle diversità” in un ambiente che includa tutti).

Un robot può fornire maggiori opportunità di inclusione tra bambini autistici e neurotipici, così da “ammortizzare” l’impatto di questo disordine e di tutti i residui che esso porta nell’età adulta. Altresì, può migliorare l’attività didattica dei docenti. Non meno importare è l’agire in un ambiente meno restrittivo (l’ambiente scolastico) rispetto a quello riabilitativo.

Inoltre, pregio dell’intervento di Desideri, è quello di creare un filo conduttore tra «l’efficacia osservata dei robot sociali nell’aumentare i risultati cognitivi, affettivi, sociali» (per una rassegna: Belpaeme, 2018) con l’accessibilità agli stessi. In parole chiare, una volta tolto ogni dubbio sull’attendibilità dell’efficacia dei robot sociali, l’ostacolo maggiore è permettere che tali strumenti possano essere reperiti con facilità, non ostacolando la precitata partnership tra gli erogatori del servizio (chi fornisce i robot) e gli educatori (e.g. personale scolastico).

Desideri accorcia questa distanza parlando di una ricerca che ha coinvolto 66 bambini in due scuole, in cui è stato utilizzato un robot sviluppato dalla Aldebaran, disponibile in commercio, con ottimi risultati.

Intelligenza Artificiale e Sanità

Il Dott. Stefano Triberti (Imm. 3) è ricercatore dell’Università di Milano, la cui attività si concentra sullo studio delle tecnologie per la salute e la sanità, ovvero l’impatto che l’intelligenza artificiale consegue sul processo clinico assistenziale e sul funzionamento delle aziende sanitarie. Completa è l’analisi di Triberti, il quale si esprime con perizia sulla fedeltà del termine Intelligenza Articifiale (IA), vittima della trivializzazione mass-mediatica e tradito dal senso comune che lo sequestra, creando una strozzatura nell’accezione: “intelligenza artificiale equivale a qualunque cosa sia animata dalla tecnologia”. Triberti, con la sua prefazione, lo reintroduce nell’alveo di pertinenza: «il 95% delle applicazioni dell’IA non ha a che fare con i robot».

Robot intelligenza artificiale e disturbi del neurosviluppo Report ECDP Imm 3

Imm. 3 Dott. Stefano Triberti

Nel prossimo futuro, si prevede che l’IA parteciperà in modo progressivo ai processi decisionali, in contesti che vanno dalla sanità alla politica. Ad esempio, nell’ambiente sanitario, i medici utilizzeranno sempre più dispositivi di intelligenza artificiale e apprendimento automatico per migliorare la precisione nella diagnosi e identificare i regimi terapeutici.

È importante comprendere l’influenza dell’IA sul processo decisionale condiviso e sulla relazione medico-paziente nel suo complesso.

Il ruolo dell’IA in medicina è essenzialmente quello di identificare la diagnosi e circoscrivere un trattamento personalizzato: è la medicina di precisione, che intercetta uno specifico trattamento per ogni individuo (dal profilo genomico al monitoraggio dello stato di salute del paziente nel lungo termine).

Messaggio pubblicitario È altresì importante, per Triberti, implementare il contesto culturale, contrastando i pregiudizi legati all’utilizzo di nuove tecnologie: «Health professional deos not need to identify diagnosis and treatment only» (‘Il medico non può limitarsi nella diagnosi e trattamento’), anche in vista di pazienti più autonomi, indipendenti e che credono di essere informati.

Nondimeno, potranno essere presenti degli ostacoli da affrontare. Così, ad esempio, in caso di atteggiamenti negativi da parte degli specialisti, il ruolo delle tecnologie da utilizzare potrebbe non essere chiaro (c.d. «medicina difensiva». Sul punto, particolarmente illuminante è il c.d. effetto “terza ruota”, descritto da Triberti e collaboratori nella pubblicazione «Third Wheel Effect in Health Decision Making Involving Artificial Entities: A Psychological Perspective»).

Conclusioni

Gli interventi di questi esperti, alla European Conference on Digital Psychology, hanno fatto comprendere come le “forbici” della ricerca si stanno chiudendo sempre più: da un lato la teoria, che si percepiva come speculativa e lontana dalle applicazioni pratiche della robotica sociale; dall’altro le applicazioni effettive che hanno prodotto risultati concreti e significativi. In parole chiare lo scopo è – e sarà sempre più – quello di creare coerenza tra il contesto del bambino autistico e la sua “condizione”, evitando di renderla un’eccezione cospicua con interventi isolati.

Rispetto al passato, scopo di questa nuova weltaschaung è quello di costruire “un’impalcatura” che accolga ogni diversità e la metta in relazione.

Un’interessante slide mostrata da Ghiglino, illustra il disegno di un bambino: un “robot con un cuore”…

 

VOTA L'ARTICOLO
(voti: 3, media: 5,00 su 5)

Consigliato dalla redazione

ECDP 2021 - Report dal Congresso - Main (1)

Intelligenza artificiale e benessere psicologico: l’idea di IDEGO presentata all’European Conference on Digital Psychology

Dalla nascita della psicologia digitale è passato qualche decennio, ma mai come ora lo psicologo si è servito delle tecnologie per erogare i propri sevizi

Bibliografia

  • Happé, Francesca GE. “Central coherence and theory of mind in autism: Reading homographs in context.” British journal of developmental psychology 15.1 (1997): 1-12.
  • Scassellati, Brian, Henny Admoni, and Maja Matarić. “Robots for use in autism research.” Annual review of biomedical engineering 14 (2012): 275-294.
  • Ghiglino, Davide, et al. “Follow the white robot: efficacy of robot-assistive training for children with autism-spectrum condition.” (2020).
  • Koegel, Lynn K., et al. “Improving generalization of peer socialization gains in inclusive school settings using initiations training.” Behavior modification 36.3 (2012): 361-377.
  • Desideri, Lorenzo, et al. “Emotional processes in human-robot interaction during brief cognitive testing.” Computers in Human Behavior 90 (2019): 331-342.
  • Turkle, S., Taggart, W., Kidd, C. D., & Dasté, O. (2006). Relational artifacts with children and elders: The complexities of cybercompanionship. Connection Science.
  • Breazeal, C., Dautenhahn, K., & Kanda, T. (2016). Social robotics. In B. Siciliano, & O. Khatib (Eds.). Springer handbook of robotics (pp. 1935–1972). Cham: Springer.
  • Desideri, Lorenzo, et al. “The Mind in the Machine: Mind Perception Modulates Gaze Aversion During Child–Robot Interaction.” International Journal of Social Robotics (2020): 1-16.
  • Triberti, Stefano, Ilaria Durosini, and Gabriella Pravettoni. “A “Third Wheel” Effect in Health Decision Making Involving Artificial Entities: A Psychological Perspective.” Frontiers in public health 8 (2020).
  • Vygotskij L. S.(1980). Il processo cognitivo, Bollati Boringhieri, Torino.
  • Belpaeme, Tony, et al. “Social robots for education: A review.” Science robotics 3.21 (2018).
State of Mind © 2011-2021 Riproduzione riservata.
Condividi
Messaggio pubblicitario