expand_lessAPRI WIDGET

“Non sono un algoritmo” – Book Trailer di Claudio Lombardo

In Non sono un algoritmo, Claudio Lombardo cerca di rispondere a più domande inerenti alla reciprocità comunicativa tra uomo e robot, aprendosi poi ad una riflessione su come le innovazioni tecnologiche hanno cambiato i metodi di indagine, di analisi e le teorie in campo psicologico.

Di Claudio Lombardo

Pubblicato il 15 Giu. 2018

L’interazione tra uomo e robot si fa sempre più concreta e porta con sé alcuni interrogativi sulle possibili modalità di interazione e comunicazione con questi nuovi “compagni umanoidi”.

[blockquote style=”1″]Il mio corpo è vergine dal punto di vista elettronico. Io non incorporo chips al silicio, impianti retinici o cocleari, […] ma lentamente sto diventando sempre più un cyborg. Lo stesso succede a voi. […] Perché noi diverremo cyborg non nel banale senso di combinare carne e metallo, ma nel senso più profondo di essere simbionti umano-tecnologici: sistemi che pensano e ragionano, le cui menti e i cui Io sono distribuiti tra cervello biologico e circuiteria non biologica.[/blockquote]
Clark (2005)

“Non sono un algoritmo” è un libro che cerca di rispondere a più domande inerenti alla reciprocità comunicativa che si instaura tra uomo e robot, essendo tale interazione un processo basato principalmente: 1) su come l’essere umano concepisce la relazione con il robot (credenze, convinzioni, modelli mentali ecc.) che dipende anche 2) dalle caratteristiche (l’architettura o il design robotico, le competenze e abilità del robot: intenzionalità, emotività, personalità). Fattori che i ricercatori tentano di studiare e/o manipolare per rendere capaci i robot di partecipare alla ricchezza della società umana.

Un nuovo modo di fare psicologia

Domanda iniziale di questo libro è “Come pensiamo al robot”. Ma non possiamo non far caso al modo in cui il “pensare al robot” ha trasformato come “pensiamo alla psicologia”: i metodi di indagine, di analisi e le teorie, come son cambiati?

A differenza dei tradizionali studi sui soggetti umani, i ricercatori del campo multidisciplinare della robotica, ricalcando passo dopo passo i meccanismi soggiacenti fenomeni psico-sociali, producono un modello empirico in cui la dimostrazione è il comportamento del robot.

In altri termini un modello scientifico di psicologia che utilizza un “andirivieni” tra HHI e HRI per dimostrare con assoluta certezza le proprie ipotesi: l’HRI parte da ipotesi di ricerche di modelli dell’HHI coinvolgendo e accrescendo la comprensione di quest’ultima, così, ad esempio, un robot potrebbe rappresentare una “sonda interattiva” per valutare i meccanismi sensoriali e motori alla base dell’interazione uomo-uomo (Sciutti, Sandini, 2017). Facciamo un esempio.

Tornando alla ricerca di Becchio e collaboratori (2017), il principio di osservabilità/inosservabilità può essere esteso anche ad altri aspetti del comportamento utilizzando la stessa e identica logica presentata in questo studio: 1) prima verificare se in un dato comportamento (ad esempio, oltre al movimento proposto nella ricerca, nell’eloquio) sia presente un’informazione sufficiente che discrimini due stati differenti (felice o triste) 2) identificare quali sono le caratteristiche (del linguaggio) che permettono di discriminare tra questi due stati 3) verificare se un osservatore esterno è in grado di utilizzare l’informazione presente 4a) se la risposta è sì: quale e a quanta di questa informazione è in grado di utilizzare (efficienza percettiva) 4b) Di contro, se colui che deve percepire non riesce, l’osservabilità sarà nulla e, quindi, il “modello psico-comportamentale” andrà modificato fino al raggiungimento del punto 4a.

Questo si traduce non soltanto in un arricchimento delle teorie psicologiche ma implementando, ad esempio, una cinematica o modulazione vocale intenzionale, è possibile studiare approfonditamente le dinamiche della Teoria della Mente (ToM), dato che, in tali termini, uno stato mentale è osservabile.

Psicologia e intelligenza artificiale

Nei vari passaggi multidisciplinari di questo libro si ravvisa un modo di guardare le valutazioni in corso legato alla ricerca psicologica e all’intelligenza artificiale: la presa di coscienza dell’irriducibile complessità di ogni fenomeno che invita a non trascurare gli aspetti meno evidenti dei fenomeni e non tentare una loro riduzione ad aspetti considerati più evidenti e “fondamentali”, come in passato è accaduto con l’intelligenza artificiale in cui la frettolosa creazione di un surrogato cerebrale – appunto, il “cervello artificiale” –, non provvisto di supporto fisico umanoide, ha direzionato la ricerca al fallimento nell’aver trascurato l’essenziale componente embodiment. Un’intelligenza che non può essere rappresentata da una parte riprodotta artificialmente del sistema-uomo ma che nella complessità di tale sistema trova un reale equivalente. (La robotica ha dimostrato in modo tangibile come corpo e cervello siano un’unità e come l’apprendimento non sia essenzialmente una questione mentale.)

HRI/HHI, ToM e evoluzionismo

Le ricerche, come abbiamo visto, suggeriscono che, dal punto di vista dell’utente, l’interazione con un’entità artificiale è simile all’interazione con gli altri umani (Krämer, et al., 2012), anche se l’intera ricerca che gravita attorno l’HRI mira a superare l’ipotesi dell’uncanney valley, ovvero quel senso di spiacevolezza e inquietudine nel momento in cui il robot raggiunge un livello di somiglianza paritetica all’uomo.

Non indagata nelle attuali ricerche la radice di tale ipotesi, tra le righe di questo libro, l’uncanney valley è riconducibile ad aspetti prettamente evoluzionistici e letture freudiane.

Il richiamo alla componente evoluzionistica è in riferimento ad un automatismo primordiale al quale l’uomo si attiene durante l’interazione con un umanoide artificiale: è come se ci fosse una lettura coerente tra l’aspetto umanoide e le sue abilità interne, e se violata tale coerenza si cadesse nell’ipotesi dell’uncanney valley. Si può dedurre che qualsiasi algoritmo/software, il design, la meccatronica dovranno essere implemente in modo da non deludere le aspettative dell’utente umano. I disegni esterni, l’hardware del robot, dovranno essere creati sotto un profilo che rispecchi il software, la parte interna. Nell’Istituto Italiano di Tecnologia (IIT) è stato superato questo impasse realizzando un robot (iCUB) con un corpo che non rifletta in maniera identica quello umano, infatti, in iCUB – come ormai in molti robot costruiti in tutto il mondo – troviamo un accenno del naso, ma non la riproduzione del naso vero e proprio come in alcuni robot umanoidi creati quasi per sfida in modo speculare all’uomo, dove, l’ipotesi dell’uncanney valley, trova terreno fertile.

L’altro aspetto considerato riguarda la prospettiva freudiana, ovvero di uno stato di categorizzazione percettiva di incertezza “vivo o morto” dove ne scaturiscono giudizi percettivi necessari a produrre reazioni perturbanti come nel caso di statue, bambole e automi simili a umani. Rendere più “vivi” i robot umanoidi può alleviare o sopperire ai sintomi dell’uncanney valley. La ToM nel robot si configura come una competenza che può permettere di far raggiungere tale obiettivo.

In base a questa incoerenza, si potrebbe sostenere come un robot senza una ToM di base (ad esempio quella riscontrabile nei primissimi anni di vita dei bambini) sia destinato a svolgere un lavoro limitato, in quanto delude le aspettative dell’utente e non potrà così mai coinvolgere efficacemente gli esseri umani o lavorare in modo cooperativo.

In altri termini l’implementazione della complessità dei meccanismi cibernetici degli umanoidi artificiali interattivi con la coesistenza di una ToM artificiale – che possa consegnare quella “coerenza” nell’interazione tra uomo e robot – potrà permettere di superare l’uncanney valley, ovvero quella “dissonanza cognitiva” che proviene dall’incongruenza tra le prestazioni dell’hardware e il software (la perfezione estetica non rispecchia le competenze che gli si potrebbero attribuire con una conseguente uncanney valley. Una dissonanza calcolata in base al livello di trust delle persone in relazione alle skills dimostrate dal robot (Freedy, Amos, et al., 2007; Yagoda, Gillan, 2012; Salem, et al. 2015).

E se nell’introduzione di questo libro è stata utilizzata la metafora di Polifemo nella conclusione possiamo far riferimento al racconto de “La volpe e l’uva”, in cui il desiderio dell’uva (desiderio dell’interazione con il robot da parte dell’uomo) e l’incapacità di arrivarci (impossibilità di interagire in accordo al grado di evoluzione dell’aspetto mostrato) porta alla conclusione che “l’uva è acerba” (uncanney valley).

Si parla di:
Categorie
CONSIGLIATO DALLA REDAZIONE
Realtà virtuale un valido strumento nel percorso di psicoterapia
Realtà virtuale: cos’è e come può essere utilizzata in psicoterapia?

La realtà virtuale può rappresentare un valido strumento di aiuto in psicoterapia, sia per il terapeuta che per il paziente. Diverse le tipologie di disturbi che hanno beneficiato dell'inserimento di tale strumento nel trattamento, dall'ansia, ai disturbi alimentari, fino alle tecniche di gestione dello stress.

ARTICOLI CORRELATI
I software di trascrizione basati sull’intelligenza artificiale nelle sedute di psicoterapia – Psicologia digitale

Esistono software basati sull’intelligenza artificiale che trasformano file audio in testo, utili per la trascrizione delle sedute di terapia

L’utilizzo del Machine Learning nell’ambito della salute mentale

Gli algoritmi di Machine Learning permeano una vasta gamma di settori nella società, e possono fornire contributi anche alla salute mentale

WordPress Ads
cancel