Tu chiamale se vuoi emozioni

Una riflessione critica sull'intelligenza artificiale e i tentativi di renderla sempre più in grado di comprendere e fare proprie le emozioni

ID Articolo: 171607 - Pubblicato il: 30 gennaio 2020
Tu chiamale se vuoi emozioni
Messaggio pubblicitario SFU Magistrale
Condividi

L’intelligenza artificiale (IA) vuole imparare a provare emozioni e a comprendere quelle degli esseri umani. Questione di empatia?

 

Messaggio pubblicitario Gli algoritmi della IA hanno ‘dato vita’ a soggetti famosi. Il dipinto della Monna Lisa – o, meglio, una sua fotografia – si è tramutata anche in video in cui ella parla, muove la testa e gli occhi. Durante la fase di training, gli sviluppatori hanno ‘nutrito’ il relativo algoritmo di apprendimento attraverso migliaia di immagini/dati insegnandogli come isolare e distinguere alcuni movimenti del volto, compresi quelli degli occhi, della bocca e delle sopracciglia. In questo modo l’IA ha capito che a determinate azioni – per esempio, parlare – si accompagnano certi altri movimenti del viso – come l’apertura e la chiusura delle labbra. L’immagine statica – foto, dipinti – si anima, dunque. Evviva!

Stessa sorte – anzi animazione – per Marilyn Monroe e Salvador Dalί. Anche Albert Einstein non è stato risparmiato. Che scherzo del destino il suo: proprio lui che affermava che la creatività è l’intelligenza che si diverte. Ma perché? l’intelligenza artificiale è forse capace di divertirsi? Si emoziona, crea, si diverte… sembra che a breve tutto le sarà possibile nel campo della deep fake, e quindi anche questo. E’ già in grado di essere creativa; basta intendersi, però, su cosa si intenda per creatività… L’arte contemporanea si intreccia e si fonde progressivamente con la scienza e le tecnologie, si ibrida con esse creando nuove sinergie. Ed ecco entrare ‘in mostra’ forme di new media art quali la Net Art, la Digital Art, la Bioarte, l’Arte transgenica.

Realtà virtuale e aumentata quindi.

E’ stato il turno degli ologrammi di Michael Jackson, della Callas e la lista è lunga e nota. Tra i più recenti, la versione olografica di Gianna Nannini che canta.

E’ amore per la ricerca, per la sfida, puro divertissement, è voglia di nuovo e di superare il limite, è democratizzare e divulgare il sapere o un nuovo modo di fare cultura? O, anche, sottostanti attori tramano cattive intenzioni? Forse un po’ di tutto questo, ma anche molto altro.

L’algoritmo in sé non è né buono né cattivo; il suo comportamento dipende sia dal fatto che il cibo che gli si somministra sia di buona qualità, sia per quali scopi lo si voglia utilizzare. Le sue finalità possono essere pubblicitarie, economiche, criminali, destabilizzanti, terroristiche, innocue, utili per il progresso e il miglioramento della qualità della vita degli esseri – dagli umani alla vegetazione, e così via.

Si pensi alle possibili emozioni sottostanti all’arrossire. Questo è un esempio utile per comprendere l’importanza delle emozioni in economia (Frank, 1987). In un contesto di informazione asimmetrica – dove un soggetto possiede maggiori informazioni della controparte circa la propria onestà, generosità, la qualità delle commodities che intende vendergli, e così via, le emozioni assumono un importante valore segnaletico (signalling). In qualche modo possono essere ‘gestite’ ad hoc per inviare un segnale alla controparte che ha minori informazioni sull’altro (Frank, 1987). Un ad hochismo questo che permette di stipulare contratti e scambi, che altrimenti non potrebbero essere realizzati in assenza di sufficienti informazioni. In un sistema economico, quindi, le emozioni diventano un succedaneo delle informazioni e permettono, di conseguenza, di superare un market failure e di raggiungere un miglioramento paretiano (Frank, 1987).

Tuttavia, non mancano i rischi e i pericoli. Secondo il sito web d’attualità statunitense Mashable, le conseguenze del filone di ricerca volto a realizzare algoritmi ‘emotivi’ possono essere pericolosissime. Non solo le persone o i dipinti più celebri diventano oggetto di deep fake, ma il rischio riguarda potenzialmente tutti, anche in considerazione di come stiano diventando potenti e, allo stesso tempo, facili da ottenere tali apparecchiature.

C’è di più: l’errore umano può generare quello artificiale, e viceversa. Mai riporre una fiducia incontrastata, dunque!

E proprio la lettura delle emozioni attraverso l’uso della IA e le conseguenze che possono trarsi da tale lettura sono parecchio allarmanti. Ci sono due Case che tentano di insegnare all’intelligenza artificiale il mondo delle emozioni umane, l’Affectiva e l’Empath, rispettivamente statunitense e giapponese.

Il database di emozioni di Affectiva ha raggiunto quasi 6 milioni di visi, analizzati in 75 paesi; più precisamente, ha raccolto oltre 5 milioni di video facciali, corrispondenti a 40 mila ore di flussi di dati. Si tratta del database più grande del mondo che rappresenta le spontanee reazioni emotive di persone in contesti autentici – ‘in the wild’, secondo la terminologia di Affectiva (casa, ufficio, ecc.). Le persone vengono riprese mentre sono impegnate in qualche attività, soprattutto quando stanno guidando o guardando film, show televisivi, campagne pubblicitarie virali online, ecc. Il meta-obiettivo di questa attività è ovvio: usare le espressioni umane ‘nature’ per addestrare l’IA a interpretare cosa provano le persone. Il sorriso significa felicità, le labbra in giù segnalano tristezza, gli occhi socchiusi la rabbia, e così via. Tale approccio sembra costituire, tuttavia, una semplificazione enorme, oltre che pericolosissima: ad esempio, un sorriso può essere solo affettazione o cortesia; nulla a che fare con la gioia; gli occhi socchiusi possono essere sonnolenza o relax, l’esatto contrario della rabbia. L’obiettivo finale dell’attività dello studio delle emozioni della IA è altrettanto ovvio: migliorare le interazioni uomo-macchina. L’idea è che se il robot comprende ciò che prova la persona che ha accanto, può offrirle un servizio migliore. Tipico esempio è quello della guida: capire le condizioni del conducente, se è stanco, se ha sonno, se è arrabbiato. Tutte situazioni di pericolo mentre è alla guida di un veicolo. Tale ‘segnaletica emotiva’ è importante specialmente per le vetture che guidano da sole, sempre più robuste, piene di airbag, radar, sensori, telecamere. Auto sempre più sicure, sì certo,… ma soprattutto per chi è a bordo: né per ciclisti, né per pedoni.

Messaggio pubblicitario I pericoli sono sottolineati anche da un importante studio del 2019 condotto da un team prevalentemente di psicologi: nello studio si nota come un punto di vista molto diffuso sia che lo stato emotivo di un individuo può essere inferito dai suoi movimenti facciali, chiamati espressioni emotive o espressioni facciali (in modo inquietante si coglie una certa analogia con gli argomenti à la Lombroso): la convinzione circa la capacità predittiva dell’algoritmo che coglie le emozioni umane ha ricadute in settori delicatissimi come quello della giustizia, i protocolli per la sicurezza nazionale, le decisioni politiche, i settori dell’istruzione e della sanità (anche per la diagnosi e il trattamento dei disturbi psichiatrici), gli scambi commerciali, e così via.

Lo studio testa la validità del senso comune che attribuisce specifiche relazioni tra espressioni facciali ed emozioni. Fra queste, lo studio considera le sei principali: gioia, rabbia, tristezza, timore, disgusto, sorpresa.

Sebbene l’evidenza scientifica supporti il senso comune (se una persona sorride vuol dire che è felice), tuttavia – si osserva nello studio – il modo attraverso cui le persone comunicano tali emozioni variano in funzione di fattori culturali e situazionali. E anche fra le persone che esperiscono la medesima circostanza, il tipo di emozione che provano può essere diverso: essendo le persone diverse, la medesima circostanza può suscitare un’emozione diversa. Le emozioni, come le preferenze, sono qualcosa di estremamente soggettivo, e poi possono sfumarsi in tante nuance intermedie con confini porosi: ‘mixed feeling’ appunto. Quindi, il rapporto fra stato emotivo ed espressione facciale non ha una correlazione 1:1, poiché una certa configurazione facciale può essere il risultato di un misto di emozioni e uno stato emotivo, quale l’essere accigliati, non necessariamente significa rabbia, bensì può sottendere concentrazione o riflessione.

Scendendo più in profondità, uno dei coautori – Lisa Feldman Barrett, docente di Psicologia alla Northeastern University di Boston – osserva che i nostri sentimenti non sono solo un sopracciglio che si alza, una lacrima che scende o un sorriso che viene dispensato. Le emozioni non sono solo nel viso, esso è solo la facciata (appunto!), quella che si vede quale effetto finale di una cascata di cambiamenti interiori. Insomma: analizzare solo gli occhi, o solo gli occhi e la bocca, o solo gli occhi, la bocca e il battito del cuore non sarebbe sufficiente per comprendere veramente un individuo.

Le emozioni degli esseri viventi, e soprattutto le emozioni degli esseri umani, sono qualcosa di estremamente sofisticato. E’ un complesso poliedrico, ricco di sfaccettature, dai contorni non sempre distinti, evanescenti, è ricco di sfumature e di nuance, si contraddice, evolve, si contestualizza. Nell’ambito del capitale umano, il complesso delle emozioni è un patrimonio inestimabile, che a volte può tracciare persino il corso della nostra esistenza.

Può l’intelligenza artificiale cogliere tutto questo? Ma su, siamo seri!

VOTA L'ARTICOLO
(voti: 3, media: 5,00 su 5)

Consigliato dalla redazione

Intelligenza Artificiale: i risvolti negativi di una disciplina volta al progresso

L'intelligenza artificiale fra utopie, distopie, pregiudizi algoritmici

Intelligenza Artificiale: l'altro lato della medaglia. Progresso o disciplina incontrollabile che rischia solo di evidenziare un’afasia tra uomo e macchina?

Bibliografia

State of Mind © 2011-2020 Riproduzione riservata.
Condividi
Messaggio pubblicitario

Messaggio pubblicitario

Messaggio pubblicitario