Intelligenza artificiale buona e intelligenza artificiale psicopatica: istruzioni per l’uso

L'Intelligenza Artificiale (IA) sembra assumere due polarità, una buona e una opposta, definita Intelligenza Artificiale psicopatica.

ID Articolo: 172553 - Pubblicato il: 05 marzo 2020
Intelligenza artificiale buona e intelligenza artificiale psicopatica: istruzioni per l’uso
Messaggio pubblicitario SFU Magistrale
Condividi

ONU, Commissione europea, Vaticano, World Economic Forum: la tematica sull’intelligenza artificiale (IA) e sulla sua interazione con l’uomo (Human-In-The Loop, HITL) suscita un forte fermento.

 

Ricorrendo a una estrema – e non esaustiva – sintesi, di seguito enucleiamo dal dibattito in corso tre aspetti.

  • Tipo di intelligenza artificiale: qui distingueremo fra IA “buona” e IA “psicopatica”. Come gli estremi possono convergere a un fine unico.
  • Fase in cui ci troviamo: urge una regolamentazione basata sulla cooperazione all’interno della UE e fra questa e altri paesi per una IA su cui si possa riporre fiducia, che sia equa, inclusiva ed eticamente allineata ai valori umani.
  • Stagione in cui ci troviamo: autunno/inverno della IA o sole d’agosto?

Messaggio pubblicitario L’IA riflette una visione antropocentrica del mondo. In questo suo rispecchiare la componente umana, con le sue tante valenze, la IA può essere cattiva e psicopatica, bugiarda o, al contrario, allineata ai valori etici della società e a supporto del benessere di quest’ultima. In tale circostanza, degna di fiducia.

Consideriamo due casi polari: la IA “buona” e la IA definita dai data scientist di Media Lab del MIT come la “prima intelligenza artificiale psicopatica”.

Riguardo alla prima tipologia di IA e alla luce del binomio “progresso tecnologico-etica”, quale tema potrebbe essere più adatto di quello sugli Obiettivi di Sviluppo Sostenibile (SDGs)? Ed ecco che, funzionali a essi, nel 2017 nasce l’iniziativa “AI for Good”. Questa è una piattaforma delle Nazioni Unite, concorre attraverso progetti concreti all’utilizzo positivo dell’IA, come l’avvicinamento ai 17 SDGs previsti dall’Agenda 2030. Pur trasversali, questi ultimi vengono concentrati in 3 macroaree: ambiente, salute, formazione scolastica.

Nella prospettiva incentrata sull’uomo, definita nella comunicazione dell’aprile 2019, la Commissione europea vede nella IA uno strumento che concorre all’obiettivo di accrescere il benessere umano individuale e collettivo.

Come esiste l’intelligenza artificiale buona, in linea esistono gli hacker buoni. Il collettivo tedesco Chaos Computer Club (CCC) è una delle organizzazioni della società civile più consolidate e più influenti aderente ai principi dell’hacking etico e che si occupa degli aspetti di sicurezza e privacy della tecnologia nel mondo di lingua tedesca. Strutturati in 25 cosiddetti “Erfakreisen” (spazi hacker regionali) e in “Chaostreffs” ancora più piccoli, gli hacker CCC – circa 5.500 membri – lavorano secondo una architettura decentralizzata.

La IA “psicopatica” vede morte ovunque. Tale bias è voluto dai suoi sviluppatori. Non intende essere un divertissment macabro in stile noir d’atmosfera, ma, al contrario, ha scopi etici, in quanto intende mettere in guardia l’opinione pubblica circa le conseguenze derivanti da una IA sfuggita di mano, perché non “allevata” bene. Il fine scientifico è arrivare a comprendere le declinazioni patologiche di una mente artificiale, educatasi a un apprendimento su particolari e rischiosi database.

A tale scopo, l’algoritmo di machine learning è stato nutrito con “junk food”, cibo esiziale. Da tali input non ne poteva scaturire un output diverso. In particolare, l’algoritmo – chiamato Norman Bates, dal protagonista del film Psycho (1960) di Alfred Hitchcock – è stato nutrito di video e immagini tratti dal celebre aggregatore statunitense Reddit, watchpeopledie, un nome che è tutto un programma! Quando si dice, sei quel che mangi… Quindi – questo è il segnale forte da parte dei data scientist – attenzione al tipo e qualità di cibo che viene somministrato all’algoritmo di apprendimento automatico.

A supporto di tale argomento, il team di ricercatori ha creato un algoritmo controfattuale servendosi del test di Rorschach (per interpretare immagini) che prevede di sottoporre dieci immagini contenenti delle macchie di inchiostro simmetriche. Alle due machine learning è stato domandato ciò che vedevano guardandole. Hanno dato risposte totalmente disallineate, in funzione di come erano state nutrite. Lì dove la machine learning “normale” – cibata di immagini provenienti dal Coco dataset, più neutrale con tanti fiorellini e animali – vedeva un vaso di fiori, quella “psicopatica” vedeva un uomo ucciso a colpi di pistola. Mentre la prima ha indicato il ritratto in bianco e nero di un uccellino, la “psicopatica” ha visto una persona trascinata all’interno di un’impastatrice.

Naturale corollario è la necessità della regolamentazione, nell’ambito della quale fiducia, etica ed equità, allineamento ai valori umani sono elementi fondanti.

Per una IA di cui ci si possa fidare, la UE ha messo in campo una strategia – “Trustworthy AI” –, Linee guida etiche della IA basate su sette requisiti chiave che tali sistemi devono soddisfare per essere affidabili: agenzia umana e supervisione; robustezza tecnica e sicurezza; privacy e governance dei dati; trasparenza; diversità, non discriminazione ed equità; benessere sociale e ambientale; responsabilità.

E ancora su non discriminazione ed equità, RenAIssance. Per un’Intelligenza Artificiale umanistica, Microsoft e Ibm in Vaticano per sottoscrivere una “Carta etica” sulla IA (la firma a fine febbraio nell’evento della Pontificia Accademia per la Vita). La progressiva sofisticatezza tecnologica della IA porta con sé l’elevato rischio di una rendita oligopolista riservata alle più grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. Si perderebbe così di vista l’equità nella ricerca di informazioni e la democratizzazione dell’IA qualora essa rimanesse inaccessibile a coloro che non fanno parte di tali élite.

Messaggio pubblicitario A inizio d’anno, l’IA è stata al centro del dibattito, sia a Bruxelles in occasione del think-tank europeo Bruegel, sia a Davos in occasione del World Economic Forum. In entrambe le circostanze, grande protagonista il CEO di Google. Il suo messaggio primo: regolamentazione. Sullo sfondo, l’inquietante scandalo sul riconoscimento facciale: la scoperta del servizio Clearview AI – una piccola start-up fondata da un ingegnere autodidatta australiano – che a oggi avrebbe raccolto oltre 3 miliardi di immagini dal web rese disponibili ad alcune forze dell’ordine statunitensi. Un’app rivoluzionaria quanto controversa: evocazioni di sorveglianza di massa e pregiudizio alla privacy.

La lungimiranza di Google non è frutto esclusivamente di un’idea di capitalismo più responsabile, inclusivo e sostenibile, ma – con una buona dose di pragmatismo – costituisce la risposta alla crescente pressione sulle due sponde dell’Atlantico contro le pratiche invasive dei tecno-capitalisti.

Questa tensione tra progresso e regole potrebbe trovare una svolta nel Libro bianco sull’intelligenza artificiale della Commissione europea. Al bando temporaneo il riconoscimento facciale nei luoghi pubblici per favorire lo sviluppo di nuove regole e metodologie in grado di valutare l’impatto etico di misure così strettamente collegate alla sfera personale.

In quale stagione dell’IA ci troviamo? In gergo, infatti, l’IA segue la metafora delle stagioni.

Sul tappeto posizioni fortemente eterogenee. Il disaccordo si accresce riguardo all’intelligenza artificiale generale (IAG), che arrivi al livello umano e lo superi, raggiungendo la superintelligenza (Tegmark, 2018). E in tal caso prevarrà la singolarità tecnologica, cioè si avvererà la profezia secondo cui il progresso tecnologico raggiungerà una velocità tale da cambiare radicalmente il mondo per come lo conosciamo oggi e in cui l’intelligenza delle macchine supererà quella dell’uomo. E che dire del Quantum computing? Permetterà di simulare meglio la natura, ricreare le molecole, con sbocchi impensabili nella biologia.

Ma la realtà sconfessa tanto euforico ottimismo: il percorso della IA è lastricato di incidenti a tutti i livelli, cominciando dalla vita stessa dell’essere umano (un esempio? A marzo 2018, in Arizona, un’auto a guida autonoma investe uccidendo la ciclista Elain Herberg. Il safety driver a bordo non è riuscito a frenare). Ci avviamo verso l’inverno quando vengono annunciate cose che, di fatto, non si possono raggiungere. La profetica splendida stagione della IA vede accorciare le ore di luce del giorno. C’è chi già parla di uno scoppio di una bolla. E certo non sarebbe la prima nel comparto tecnologico. Un “AI winter” è un periodo in cui i fondi e l’interesse per il settore svaniscono. Si innesca una sorta di reazione a catena e un avvitamento verso il basso: il pessimismo circola nella comunità scientifica, poi nel mondo dell’informazione e nei media e infine nel pubblico, fino a far collassare il settore e, quindi, la ricerca.

Ma oggi il buio totale del settore sarebbe da escludere. Il potenziale e i benefici sono tanti. Basti citarne uno – più che mai attuale – per tutti: la piattaforma IA BlueDot (creata in Canada) aveva previsto e avvisato del pericolo del focolaio del coronavirus cinese prima di tutti; un anticipo di diversi giorni, che per queste problematiche risulta essenziale per salvare vite e contenere il contagio. Il centro USA per il controllo e la prevenzione delle malattie (CDC) ha avvisato del pericolo del coronavirus il 6 gennaio, mentre l’Organizzazione Mondiale della Sanità ha avvisato il pubblico con un comunicato del 9 gennaio. La piattaforma canadese BlueDot ha battuto entrambi, annunciando del pericolo i propri clienti il 31 dicembre (Piccinelli, 2020).

Pertanto, se la ciclicità del fenomeno non può escludersi, oggi – secondo alcuni studiosi – stiamo vivendo una mezza stagione della IA: un suo autunno (Foderi, 2020).

 

VOTA L'ARTICOLO
(voti: 2, media: 5,00 su 5)

Consigliato dalla redazione

Intelligenza artificiale: i pericoli legati alla scarsa trasparenza algoritmica

La (scarsa) comprensibilità dell'Intelligenza Artificiale

Gli algoritmi dell'IA crescono per complessità dei settori che se ne avvalgono, quali conseguenze ha la scarsa comprensione di questi da parte degli utenti?

Bibliografia

State of Mind © 2011-2020 Riproduzione riservata.
Condividi
Messaggio pubblicitario

Messaggio pubblicitario

Messaggio pubblicitario