expand_lessAPRI WIDGET

L’intelligenza artificiale fra utopie, distopie, pregiudizi algoritmici

Intelligenza Artificiale: l'altro lato della medaglia. Progresso o disciplina incontrollabile che rischia solo di evidenziare un’afasia tra uomo e macchina?

Di Mariateresa Fiocca

Pubblicato il 02 Dic. 2019

Negli ultimi anni si sta assistendo a un incessante sviluppo dell’Intelligenza Artificiale. Per quanto l’IA porti interessanti e utili innovazioni, può nascondere risvolti inquietanti: la possibile evoluzione secondo cui essa riesca a superare le capacità stesse degli esseri umani e i bias cognitivi da essa generati.

 

Il mondo dell’intelligenza artificiale (IA) ormai sommerge il nostro quotidiano, anche nelle tradizioni più ataviche quali la preghiera. Sì, perché siamo arrivati al rosario digitale. Il dispositivo eRosary è un bracciale che si attiva facendo il segno della croce. E’ dotato di una croce intelligente che memorizza tutti i dati connessi all’applicazione.

Nel lavoro vengono analizzati due aspetti inquietanti dell’IA. Il primo riguarda la possibile evoluzione secondo cui essa riesca a superare le capacità stesse degli esseri umani in ogni settore. Il secondo aspetto riguarda i bias cognitivi generati dalla IA tramite i pregiudizi algoritmici.

La capacità di apprendimento di programmi estraendo pattern di dati è il machine learning o apprendimento automatico (sotto-settore dell’IA, che studia algoritmi che migliorano con l’esperienza). Tale processo di apprendimento rinvia alle reti neurali artificiali.

All’interno di una rete neurale artificiale, i neuroni vengono organizzati per strati/livelli (se sono più di due livelli, tale architettura è il deep learning o apprendimento strutturato profondo o apprendimento gerarchico. “Profondo” sta a significare appunto “su più livelli”). I neuroni di ciascuno strato sono connessi solo a quelli dello strato immediatamente superiore e a quello subito inferiore. Le interconnessioni fra strati avvengono attraverso pesi numerici. Naturalmente, in questo processo di trasmissione, i neuroni posizionati a livello apicale (cd. livello nascosto) si limitano a ricevere informazioni dallo strato inferiore. Secondo un sistema di bottom-up, è lo strato di base ad acquisire input esterni: un neurone di base è in grado di processare, ad esempio, le informazioni relative a uno specifico punto (pixel) derivante da una macchina fotografica. L’intera struttura acquisisce un’immagine – quella di un elefante, ad esempio – da uno strato all’altro tramite i pesi numerici. E’ anche possibile che, sempre mediante tali interconnessioni, l’immagine scenda di nuovo, fino a quando l’intera struttura è pienamente in sintonia così da riconoscere l’immagine dell’elefante. Per il training si usano gli “algoritmi di retropropagazione dell’errore” (backpropagation), attraverso cui si rivedono i pesi della rete neurale in caso di errori (la rete propaga all’indietro l’errore in modo che i pesi delle connessioni vengano aggiornati in modo più appropriato). E’ un processo iterativo. Una rete neurale si presenta quindi come un sistema “adattivo” durante la fase di apprendimento, compiendo un processo di “trial and errors”. Che il sistema abbia raggiunto la sintonia è indicato da un pattern di neuroni posizionati al livello basso, che “spara” tale informazione allo strato superiore. Dopo un allenamento costituito da milioni di immagini dell’elefante, finalizzato a un apprendimento autonomo (i sistemi di deep learning, infatti, migliorano le prestazioni all’aumentare dei dati), finalmente la macchina da sola è in grado di riconoscere un elefante (“apprendimento non supervisionato”). La rete neurale apprende quindi in modo autonomo come analizzare i dati grezzi e come svolgere un compito di riconoscimento visivo (classificare un individuo/oggetto riconoscendone, autonomamente, le caratteristiche).

L’apprendimento profondo consente ai computer una progressiva quantità di applicazioni, tra cui il riconoscimento facciale come strumento di sorveglianza in paesi come la Cina. La società della sorveglianza digitale è inaccettabile. Emblematica la protesta dello scorso 24 agosto a Hong Kong. Nel video virale appaiono manifestanti vestiti in nero, con il volto coperto e con gli ombrelli, l’icona della volontà di frapporre uno strato di stoffa oscurante tra l’occhio pervasivo dello Stato e il proprio spazio personale. “Quello non è un lampione”, afferma un tweet virale di un manifestante, “è un lampione intelligente dotato di videocamera e tecnologia di riconoscimento facciale. I manifestanti li stanno abbattendo”. Le informazioni vengono trasmesse immediatamente in tutta la Cina: abbattere quel palo costituisce la metafora di segare il tronco da cui si alimenta il potere repressivo delle autorità. Non a caso i migliori sistemi di riconoscimento facciale sono cinesi e, non a caso, la Microsoft non vende più tecnologie di IA a governi autoritari. Il tema è di attualità anche in Italia: la Polizia di Stato ha attivato il sistema SARI (Sistema Automatico per il Riconoscimento delle Immagini) basato su questo tipo di tecnologie. Si sono generate polemiche sull’ampiezza del database – 16 milioni di volti – poiché si teme una massiccia schedatura della popolazione (“Riconoscimento facciale in tempo reale: quello che vediamo nei film è realtà, 16 milioni di volti schedati”, settembre 2018, reperibile al LINK).

Un’altra pietra miliare nei progressi dell’apprendimento è stata la vittoria di Deep Blue dell’IBM nella sfida a scacchi del campione mondiale nel 1997. Deep Blue è comunque una “IA ristretta”, in quanto la macchina ha come unica capacità quella di giocare a scacchi, pur superando l’uomo. Così pure rimane una “IA ristretta” la forma di “apprendimento profondo con rinforzo” (reinforcement learning), una tecnica di apprendimento della macchina (esempio, il giocatore-macchina di “Breakout”, che scoprì la strategia vincente cui nessun umano aveva fino ad allora pensato). Tale forma di apprendimento è mutuata dalla psicologia comportamentista: il premio acquisito per un successo ottenuto (qui il punteggio) stimola a ripetere la stessa cosa.

Oggi il dibattito si è esteso all’“IA forte” o “IA di livello umano”, chiamata pure “IA generale” (IAG), che riesce a eguagliare – se non a superare – le capacità cognitive umane in ogni campo. Ci si arriverà? Ciò è auspicabile? Le macchine ci renderanno obsoleti? Che cosa significherà essere umani nell’era della “vita digitale”? (Tegmark, 2018).

La “vita digitale” rappresenta l’evoluzione cosmica ineludibile. E’ una evoluzione desiderabile, perché l’esito sarà quasi sicuramente buono, risponderebbe un “utopista digitale”. Di contro, un’altra schiera di sviluppatori e data scientist – i “tecnoscettici” – sostiene che preoccuparsi dell’evoluzione a livello vitale della IA significa imboccare un percorso potenzialmente dannoso – “rallentare la marcia della IA” stessa – distraendo risorse dal problema centrale: gli avanzamenti della IA. Quindi, entrambe le correnti di pensiero non si preoccupano di una possibile “vita digitale”, sebbene con argomenti affatto diversi. La terza via è il movimento della “IA benefica”: è realistico pensare di arrivare nel lungo periodo a una IA di livello umano, sebbene sia necessario prendere precauzioni ex ante, cioè misure di sicurezza perché la macchina non si rivolti contro l’uomo. Una “IA benefica” contribuirebbe a risolvere molte piaghe, quali guerre, cambiamenti climatici, giustizia sociale. Tuttavia, affinché tale utopia non si tramuti in distopia – l’uomo che soccombe alla macchina -, core della ricerca deve essere la sicurezza dell’IA (Tegmark, 2018). In altri termini, mantenere ben salde le briglie della macchina mentre essa avanza.

Un secondo tema cruciale del dibattito è quello dei bias cognitivi che possono essere generati dalla stessa IA tramite pregiudizi algoritmici. In un contesto esterno, complesso e in continua trasformazione, nel processo decisionale l’uomo ricorre a scorciatoie – le euristiche – per rendere più semplice e veloce l’adozione di una decisione. Tali scorciatoie, se sono errate, diventano bias cognitivi, costrutti fondati al di fuori di ogni giudizio critico, su percezioni errate o deformate, su pregiudizi e ideologie, su discriminazioni e gender.

Trasposti nell’IA, le ricadute possono diventare pericolosissime. Rimanendo nel campo del riconoscimento facciale, ricercatori del MIT Media Lab in uno studio del 2018, “Gender Shades”, hanno verificato l’accuratezza di alcuni sistemi di riconoscimento facciale dell’IBM. La ricerca ha dimostrato una precisione pari al 99% nel riconoscimento di uomini bianchi e solo del 34% per le donne dalla carnagione scura. Motivo di un così ampio gap nella percentuale di errore è che gli algoritmi usati da questi sistemi si sono basati su soggetti prevalentemente di tipo maschile e di carnagione chiara. Vale a dire, i volti neri erano meno presenti nei database usati per realizzare i software di riconoscimento e, di conseguenza, venivano identificati con maggiore difficoltà. Per comprendere fino in fondo il senso del problema, basti pensare a due circostanze: il pregiudizio insito nel sistema è stato del tutto ignorato fino a quando non è intervenuta un’audit indipendente; la quantità di dati che gli algoritmi analizzano è oggi costantemente in aumento (siamo nel campo dei big data) e, dunque, la probabilità di nascondere l’errore sempre più in profondità è destinata a crescere.

Analoga circostanza anche per il software di reclutamento del personale di Amazon: il bias privilegiava le assunzioni maschili. Ci sono voluti anni per rendersi conto dell’errore e molti tentativi per correggerlo. La probabilità di incorrere in alcuni di tali bias – quelli sessisti – si ridurrebbe se più donne lavorassero nell’IA (Rossi, 2019).

Nel settore della giustizia, affidare a un algoritmo il giudizio su un crimine o sulla possibilità che questo si verifichi è un’interferenza indebita e pericolosa. Ad esempio, in UK, uno studio realizzato da un organismo a tutela dei diritti e libertà nel paese ha evidenziato come il set di dati, già discriminatori in origine, consolidassero i pregiudizi minando diritti fondamentali. Alla base di tale bias c’è una duplice circostanza: in primo luogo, ci si è occupati di mappare zone urbane considerate più a rischio, concentrando gli sforzi della polizia verso quelle aree; in secondo luogo, si sono analizzati dati e informazioni sia di potenziali criminali sia di vittime, cercando di prevenirne le azioni. La sovrapposizione di questi due sistemi e la possibilità di utilizzare un enorme stock di serie storiche, unite alla velocità con cui si possono elaborare risposte, dovrebbero garantire un accurato “risk assessment” del crimine. Ma la vita reale è più complessa: le serie storiche non riescono a inferire a sufficienza le tendenze comportamentali del futuro, in primis perché le condizioni socio-economiche evolvono (Giribaldi, 2019).

Nello studio L’intelligenza artificiale può essere sessista e razzista: è ora di renderla equa (Schiebinger e Zou, 2018) è stato criticato come gli sviluppatori e i data scientist non abbiano insegnato alle macchine a riconoscere le minoranze sottorappresentate nella società. Sicuramente, un ordine di problemi deriva da come vengono raccolti i dati che alimentano gli algoritmi e i software. ImageNet, ad esempio, è un database di immagini utilizzato da moltissimi sistemi di visione automatizzati: il 45% di queste immagini viene dagli Stati Uniti, dove però vive solo il 4% della popolazione mondiale; le immagini provenienti da Cina e India (che insieme contano il 36% della popolazione mondiale) contribuiscono solo per il 3% al database! I sistemi di riconoscimento facciale già in commercio, quando hanno a che fare con donne di colore, sbagliano spesso (il 35% delle volte) nel riconoscere il genere, rispetto a quando le donne sono di carnagione chiara (0,8%). Nel 2015, Google si scusava (Burchia, 2015) perché un suo software aveva etichettato “gorilla” due afroamericani… e tuttora rischi di questo genere non sembrano scongiurati giacchè, nell’applicazione, la ricerca di termini quali “scimpanzé” e “scimmia” non conduce a risultati… (Simonite, 2018).

Per minimizzare i rischi urge un’etica dei dati. E in questo è importante il ruolo dell’Europa con un Codice Etico secondo cui l’IA non dovrà danneggiare la dignità, la sicurezza fisica, psicologica e finanziaria degli esseri umani. Anche il Consiglio d’Europa, con una Dichiarazione adottata nel febbraio 2019 (“Declaration by the Committee of Ministers on the manipulative capabilities of algorithmic processes”), mette in guardia contro il pericolo di discriminazione sociale causata dagli algoritmi. Sicché, il futuro dell’IA dipenderà dalla capacità di risolvere la questione dei bias cognitivi.

Ma non solo. Oltre i bias ci sono altre categorie di gravi errori. Ad agosto 2017, due chatbot progettati da Facebook cominciano a comunicare fra loro con un linguaggio incomprensibile persino dai ricercatori che li avevano progettati. A marzo 2018, in Arizona, un’auto a guida autonoma investe uccidendo la ciclista Elain Herberg. Il safety driver a bordo non è riuscito a frenare.

Questo genere di notizie generano un clima di insicurezza e angoscia nelle società, poiché l’IA sembra scappare di mano all’uomo e ci si rende conto di un’afasia tra uomo e macchina.

Ci avviciniamo a una “società della paura” man mano che ci avviciniamo a una “vita digitale”?

 

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
CONSIGLIATO DALLA REDAZIONE
Dilemmi morali e intelligenza artificiale: l’esperimento della Moral Machine
Costruire l’etica dell’intelligenza artificiale

Nello studio della relazione tra dilemmi morali e intelligenza artificiale, l'esperimento della Moral Machine ha rivelato una variazione culturale nei principi che orientano la presa di decisioni etiche nei guidatori, sfatando il concetto di un’universalità dei principi in culture eterogenee.

ARTICOLI CORRELATI
Slacktivism: di cosa si tratta? Quando l’attivismo online può diventare dannoso

Sostenere cause sociali tramite l’attivismo online può fornire un aiuto prezioso, ma attenzione allo slacktivism, una forma superficiale e disinteressata di supporto

Lo psicologo negli e-sports

Gli e-sports, progettati con l'obiettivo di competitività, hanno suscitato l'interesse della psicologia per i fattori psicologici coinvolti

WordPress Ads
cancel