expand_lessAPRI WIDGET

Le nostre relazioni digitali

Si illustrano gli sviluppi dell'intelligenza artificiale antropocentrica ed etica in particolari campi di sviluppo: sensoriale e del pensiero

Di Mariateresa Fiocca

Pubblicato il 07 Gen. 2021

Oggi l’intelligenza artificiale, basandosi su un algoritmo addestrato, è in grado di tradurre una frase pensata da un soggetto in una frase realmente pronunciata attraverso una voce sintetizzata al computer.

Introduzione

In economia (e non solo), molto diffuso è il concetto di ‘bene relazionale’ all’interno di una collettività. Oggi, con gli avanzamenti dell’intelligenza artificiale (IA), questa nozione dovrebbe essere integrata da quella di ‘bene relazionale digitale’. Infatti, all’interno della collettività, le relazioni si arricchiscono mediante la possibilità di interagire anche con le macchine – in una realtà più articolata, aumentata, e ricca di opportunità – o, in una diversa ottica, si impoveriscono – per il depauperarsi e per il rarefarsi delle interazioni interpersonali dovuti alla sostituzione della macchina all’uomo. La prospettiva cambia soprattutto in ragione dei contesti applicativi e delle finalità. Contesti e fini alla cui formulazione concorrono inevitabilmente il pensiero, i valori del data scientist che vengono canalizzati nella macchina.

Nel presente lavoro si vogliono illustrare gli sviluppi della IA antropocentrica (cioè al sevizio dell’uomo, per studiare fenomeni complessi) ed etica (cioè che lo coadiuvi/sostituisca per il miglioramento delle sue condizioni di vita, nel rispetto della sua dignità e della privacy). Lo si farà in particolari campi dove la IA si sta sviluppando: quello sensoriale e quello relativo al pensiero.

Cominciamo da quest’ultimo. ‘Mi hai letto nel pensiero!’: questa espressione non è più appannaggio esclusivo di un rapporto fra persone, ma anche fra persone e macchina. Perché oggi l’intelligenza artificiale, basandosi su un algoritmo addestrato, è in grado di tradurre una frase pensata da un soggetto in una frase realmente pronunciata attraverso una voce sintetizzata al computer. Estrarre dalla mente per mezzo della IA non è puro divertissement tecno-scientifico o mera sfida di frontiera; i risvolti pratici, come si illustrerà più avanti, sono importantissimi ed ‘eticamente corretti’. Il ventaglio è ampio e va dal campo medico al fact-checking, che – se esperito come correzione di un certo personale e profondo convincimento – si scontra il più delle volte con grandi resistenze psicologiche. Prevale, ad esempio, un largo consenso sulla circostanza che una persona, una volta esposta alla disinformazione, è molto difficile che se ne liberi (Swire ed Ecker, 2018. E qui entriamo nell’area della psicologia della disinformazione).

Ma non solo: l’intelligenza artificiale ha scoperto i segreti dell’immaginazione e il meccanismo che lega questa funzione a quella della visione. Pure in questo caso, il risultato potrebbe avere importanti applicazioni soprattutto in campo medico.

Di più: un odore artificiale realizzato con il machine learning può essere trasmesso a un cervello. Le ricadute nel campo delle neuroscienze e della medicina non sono di poco momento.

Inoltre, nuovi studi hanno dimostrato la possibilità di sviluppare una robotica dotata di sensibilità tattile. Di nuovo, le implicazioni sono notevoli in tantissimi settori – da quello produttivo a quello medico.

I progressi

Entriamo più nel dettaglio di tali progressi in campo medico e di come la qualità della vita di un individuo possa migliorare grazie alla combinazione fra neuroscienze e intelligenza artificiale.

Consideriamo, in primo luogo, il pensiero dell’uomo espresso in parole dalla IA, attraverso un meccanismo costruito da un team di ricercatori della Columbia University (Akbari et al., 2019). Questa interfaccia cervello-computer (BCI – Brain-Computer Interface) monitora l’attività cerebrale dell’uomo e può ricostruire le parole con estrema chiarezza. In particolare, i ricercatori hanno combinato i più recenti progressi nel deep learning con le tecnologie più avanzate nel campo dei sintetizzatori vocali così da ricostruire discorsi nella maniera più intellegibile e fedele possibile prendendo in esame il meccanismo cerebrale che si attiva quando i soggetti ascoltano frasi pronunciate da diverse persone. Il deep learning, si afferma nello studio, costituisce il modello più diffuso e avanzato per processare i segnali audio. I risultati sperimentali ottenuti costituisco un importante passo avanti nell’implementazione delle generazioni future dello ‘speech BCI systems’, si prevede nello studio. Questa capacità di dialogare con il cervello umano aiuta persone che non riescono più a parlare come conseguenza di una varietà di patologie contratte, quali la sclerosi laterale amiotrofica e la sindrome ‘locked-in”'(cfr., fra i numerosi studi al riguardo, Iljina et al., 2017). I soggetti affetti dalla sindrome ‘locked-in’ sono in grado di interagire con gli altri, codificando la chiusura delle palpebre oppure muovendo gli occhi, grazie al fatto che i loro centri nervosi e le vie afferenti ai nervi ottici e oculo-motori non sono intaccati. Oppure riescono a comunicare utilizzando particolari dispositivi, che risultano però lenti in quanto consentono di digitare parole lettera per lettera producendo al massimo dieci parole al minuto (il parlato naturale ha una media di 150 parole al minuto. Cfr. Anumachiapalli, et al., 2019). Con questi metodi di frontiera basati sulla AI e sulla BCI, a persone diversamente abili si danno quindi nuove notevoli opportunità di interagire con il mondo esterno.

Attraverso la IA si sono inoltre individuati i segreti dell’immaginazione e il meccanismo che lega questa funzione a quella della visione. Il deep learning ha consentito di comprendere che il cervello usa aree simili per le immagini e per la visione mentale, cioè per l’immaginazione (Breedlove et al., 2020). Più specificamente, per individuare le differenze tra le aree visive del cervello, i neuroscienziati hanno addestrato una rete neurale a vedere le immagini e successivamente a ricrearle, vale a dire a immaginarle. In una ulteriore fase della sperimentazione, allo scopo di verificare se la rete neurale fosse in grado di riprodurre fedelmente le funzioni del cervello umano, il team ha sottoposto alla risonanza magnetica un gruppo di volontari. In tal modo è stato possibile individuare quali parti del cervello diventano attive quando si vede qualcosa e quando la si immagina. Mappate queste aree del cervello, i neuroscienziati hanno constatato che cervello e rete neurale lavorano in modo simile quando vedono qualcosa e quando la immaginano, e che in entrambe le attività entrano in funzione le stesse aree del cervello. Le applicazioni in campo medico riguardano, tra l’altro, la salute mentale. Ad esempio, la cura dei disturbi che influenzano l’immaginazione, come quelli da stress post-traumatici (PTSD), che portano a rivivere tale esperienza attraverso ricordi esiziali e incubi. Se si è in grado di capire meglio la funzione neurale alla base di questi ultimi, in prospettiva potrebbero verosimilmente essere sviluppati trattamenti clinici più avanzati per il PTSD (Corbo, 2020). Quanti spettri e fantasmi verrebbero allontanati e forse anche del tutto sconfitti!

Passiamo a considerare un odore artificiale prodotto tramite il deep learning (Paoletti, 2020). Si tratta del primo odore artificiale percepito dalle cellule del cervello, ed è frutto della collaborazione fra l’Istituto Italiano di Tecnologia e la New York University. Il rationale è elaborare per via matematica un odore virtuale e trasmetterlo a un cervello biologico per verificare se venga percepito come reale. Nel lavoro (riportato in Chong et al., 2020), l’addestramento di algoritmi ha consentito di produrre il segnale elettrico corrispondente all’odore artificiale. Successivamente, in laboratorio esso è stato tramesso alle cellule nervose del bulbo olfattivo di alcune cavie. I risultati ottenuti illustrano come l’algoritmo consenta di produrre caratteristiche neurali chiave che, una volta combinate, costituiscono una specie di codice di come il cervello trasformi gli input sensoriali in percezione di un odore. Anche in questo caso, le applicazioni in campo medico sono preziose. Basti considerare le persone che hanno perso il senso dell’olfatto in seguito al Covid-19.

Sempre nella sfera sensoriale, oggi la IA è dotata anche della sensibilità tattile, grazie ai risultati della sperimentazione condotta da ricercatori della National University of Singapore, che sono stati in grado di produrre una pelle artificiale. Essa riesce a percepire stimoli tattili con una velocità superiore più di mille volte rispetto al sistema nervoso umano e di identificare forma, consistenza e durezza di un oggetto dieci volte più rapidamente di un battito di ciglia (De Agostini, 2020). La capacità di sentire e percepire meglio l’ambiente circostante grazie a questa spiccatissima sensibilità tattile può agevolare un’interazione più affidabile fra robot e persone, anche a beneficio della salute umana, ad esempio mediante l’automatizzazione di alcune (o parte di) operazioni chirurgiche.

Conclusioni

Poter mettere nuovamente in relazione il proprio mondo interiore con il mondo esterno tramite funzionalità di base quali il dialogo e i sensi, rappresenta una sorta di rinascita e il rafforzamento della propria identità. Oggi questo sta diventando possibile grazie alla ricerca di frontiera dei neuroscienziati combinata con l’intelligenza artificiale antropocentrica in ambito sanitario. Le applicazioni volte al miglioramento della qualità della vita sono sempre più numerose e sofisticate: dall’imaging medico, che velocizza l’intervento terapeutico e ne accresce l’accuratezza, all’allontanamento degli spettri collegati a una esperienza traumatica, al poter riassaporare odori e profumi e alle possibili rievocazioni che ad essi si accompagnano, allo scambio più intenso con il prossimo grazie all’accresciuta capacità di comunicare.

I progressi in tali direzioni concorrono a liberare – o quanto meno ad alleggerire – l’individuo dalle proprie esperienze stranianti.

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
CONSIGLIATO DALLA REDAZIONE
Effetto Google e amnesia digitale la memoria estesa - Psicologia Digitale
Amnesia digitale ed effetto Google: la nostra memoria estesa – Psicologia Digitale

Cosa si intende per effetto Google e amnesia digitale? Come la tecnologia sta modificando la nostra memoria? Cos'è la memoria transazionale digitale?

ARTICOLI CORRELATI
I software di trascrizione basati sull’intelligenza artificiale nelle sedute di psicoterapia – Psicologia digitale

Esistono software basati sull’intelligenza artificiale che trasformano file audio in testo, utili per la trascrizione delle sedute di terapia

L’utilizzo del Machine Learning nell’ambito della salute mentale

Gli algoritmi di Machine Learning permeano una vasta gamma di settori nella società, e possono fornire contributi anche alla salute mentale

WordPress Ads
cancel