La (scarsa) comprensibilità dell’Intelligenza Artificiale

Gli algoritmi dell'IA crescono per complessità dei settori che se ne avvalgono, quali conseguenze ha la scarsa comprensione di questi da parte degli utenti?

ID Articolo: 171175 - Pubblicato il: 15 gennaio 2020
La (scarsa) comprensibilità dell’Intelligenza Artificiale
Messaggio pubblicitario SFU Magistrale
Condividi

L’Intelligenza Artificiale (IA) è trasversale e ubiqua, ma come ci si può fidare di qualcosa che non si conosce del tutto? E che per giunta macina all’interno della sua architettura la nostra privacy? Quale sinergia potrebbe sviluppare il binomio uomo-macchina, quando mancano fiducia e trasparenza?

 

Messaggio pubblicitario L’intelligenza artificiale (IA) ha plaghe oscure. Ci limitiamo a citarne due: l’esigenza di comprensibilità dell’Artificial Intelligence (eXplainabilty – XAI) e l’intelligenza artificiale come fonte di fake news (faker).

Di seguito ci si concentrerà sulla prima questione.

Secondo uno schema di asimmetria informativa, gli utenti finali (cittadini, pazienti, manager, enti che si occupano della regolamentazione, policy makers, ecc.) non sono in grado di capire la qualità del processo decisionale adottato da numerosi sistemi basati sull’IA e il loro risultato, come o perché sia stata raggiunta una determinata decisione e se i relativi risultati siano realmente vantaggiosi e/o siano perfettibili.

Il deep learning – le tecniche di apprendimento profondo delle reti neurali che stanno alla base dell’IA – si avvale di algoritmi capaci di risolvere problemi con un elevato grado di accuratezza. Tali algoritmi hanno bisogno di addestramento. Il training si basa nel far fagocitare agli algoritmi un gran volume di dati relativi soprattutto agli individui. L’essere umano è quindi centrale nel ciclo di produzione della IA — Human-in-the-loop Artificial Intelligence (HitlAI). Questi dati sono da considerarsi materia prima dell’IA. In tale ottica, la privacy stessa rischia di diventare un input di tale processo produttivo.

Inoltre, nasce un’importante geometria tra big data (anche visivi, con la produzione e diffusione massiva di immagini e video), debunking, addestramento, debugging (o debug).

Oltre che nelle maggiori capacità di apprendimento, grazie a livelli qualitativi crescenti dei dati, le tecniche di apprendimento profondo e gli algoritmi si accrescono nel tempo per complessità, pervasività e delicatezza dei settori che se ne avvalgono, quali ad esempio:

  • la sanità: ad esempio, possono diagnosticare una patologia più rapidamente e con maggiore precisione dei medici stessi;
  • la giustizia: possono influenzare persino il tempo che una persona condannata per un reato trascorrerà in prigione;
  • il sistema economico e finanziario: nella gestione patrimoniale e dei rischi nella gestione dei dati finanziari;
  • la meteorologia: in cui le nuove tecnologie riescono a prevedere dove e quando cadrà un fulmine entro un raggio di 30 chilometri con un anticipo che va da 10 a 30 minuti, lanciando in certi casi l’allerta ancora prima che inizi il temporale; l’algoritmo ha imparato a riconoscere le condizioni che favoriscono lo scoccare della saetta analizzando i dati raccolti in dieci anni da 12 stazioni meteo svizzere, distribuite in aree urbane o di montagna;
  • la sicurezza (cybersicurity);
  • l’arte: un esempio per tutti,  la Gioconda che può assumere un’espressione accigliata, increspare le labbra, seguire i movimenti degli spettatori con gli occhi;
  • la guida autonoma, cioè le automobili che guidano in maniera autonoma: è un tipico esempio di un ambiente Human-in-the-loop poiché vi è la mediazione della presenza umana; l’auto guida da sola, ma l’uomo ha il volante in mano e, qualora essa si trovi in una situazione di empasse, lascia i comandi all’uomo.

La lista delle prestazioni non solo si allunga includendo il riconoscimento e le elaborazioni di immagini, l’istruzione, i trasporti, l’industria, il terziario, ma persino la sentiment-analysis. Essa è il campo di ricerca che, ricorrendo al machine learning, analizza testi di diversa natura per enucleare quali emozioni tendono a richiamare e ad evocare (Sasson, 2019).

L’IA è dunque trasversale e ubiqua, sicché domandarsi e comprendere fino a che punto ci si può fidare dell’apprendimento profondo è imprescindibile.

Come ci si può fidare di qualcosa che non si conosce del tutto? E che per giunta macina all’interno della sua architettura la nostra privacy? Come si può lavorare per far fronte a problemi di grande responsabilità collaborando con macchine che non si conoscono a fondo? E quale sinergia potrebbe sviluppare il binomio uomo-macchina, quando mancano fiducia e trasparenza?

Si tratta del tema della cosiddetta “scatola nera” (black box) contenente le intricate architetture di apprendimento automatico dell’IA. In tal senso, le reti neurali profonde sono talmente opache che potrebbe non conoscersi persino quale variabile/parametro abbia contribuito a quale aspetto del risultato prodotto. Pertanto, generalmente, le reti neurali riescono con grande accuratezza a realizzare i loro task, ad adottare una decisione e a produrre un risultato, ma allo stesso tempo appare estremamente complesso dare un senso ai tanti milioni di neuroni coinvolti in tale sofisticato processo.

Sorge sicché un trade-off: la portata nei guadagni di precisione nel decision-making degli algoritmi avviene a spese della trasparenza sul loro modo di apprendere, di lavorare e di produrre un risultato (ad esempio, sul piano predittivo).

La trasparenza algoritmica è volta ad acquisire la capacità di scandagliare – individuando la fonte dei flussi di dati sfruttati e creati dai sistemi di IA –, di descrivere e di replicare accuratamente i meccanismi mediante i quali tali modelli adottano determinate decisioni e imparano ad adattarsi al contesto. Non solo, la trasparenza algoritmica aiuta a comprendere le cause di una decisione errata da parte del modello e a intervenire con correttivi che ne evitino la replica. Infatti, le reti neurali artificiali, pur molto performanti, ovviamente non sono esenti da errori. Di conseguenza, è imprescindibile realizzare attività di debugging (individuazione e correzione di uno o più errori – bug – rilevati in fase di addestramento o di testing o dell’utilizzo finale dell’algoritmo).

Il problema della scatola nera diventa ancora più grave considerando che i neuroni possono essere ingannati, cioè appositamente indotti all’errore tramite artifizi sperimentati in laboratorio. Per di più, tali metodiche di inganno sono semplici. Ad esempio, è facile trarre in errore la rete neurale utilizzando immagini di individui che ad essa appaiono invece come astratte immagini geometriche; la rete potrebbe vedere linee sinuose e scambiarle per una stella marina o strisce bianche e gialle per uno scuolabus (Castelvecchi, 2019).

Gli shock a livello sistemico sono facilmente immaginabili ipotizzando che i suddetti meccanismi possano essere hackerizzati ai fini, ad esempio, di destabilizzare il sistema finanziario o di rendere vulnerabile la diagnostica del sistema sanitario o creare buchi nei sistemi di sicurezza.

Messaggio pubblicitario  Sul rapporto fiduciario tra l’uomo e l’apprendimento profondo bisogna perciò essere cauti, come suggeriscono molti data scientist: i sistemi d’IA utilizzano – e, in particolare gli algoritmi, fagocitano – dati relativi agli esseri umani e alla loro sfera privata; possono influenzarne preferenze, comportamenti e scelte; produrre un impatto rilevante sul piano emotivo e dal punto di vista etico, nonché sul piano legale (come le pervasive attività di profilazione, la privacy, la mercificazione dei dati personali, i bias algoritmici discriminatori – per genere, classe sociale, etnia, area geografica, confessione religiosa, sistema valoriale, ecc. – con conseguenti limiti ai diritti umani fondamentali dell’individuo). Il risultato della performance dell’apprendimento profondo potrebbe finire per essere manipolatorio e/o confusivo.

Consideriamo un caso inquietante ed eloquente di medicina preventiva. La capacità di apprendimento dell’IA eccelle in un sofisticato riconoscimento di pattern per determinare gli eventi di presaging dei segnali. Se si ipotizza di arrivare a sostituire alle metodiche attuali un sistema di deep learning con capacità predittive circa il tumore al seno, durante la fase di training gli algoritmi si serviranno di enormi dataset di vecchie mammografie classificate secondo le donne che hanno sviluppato la malattia. Dopo tale addestramento, la rete neurale artificiale potrebbe aver imparato – a differenza di quella biologica – a riconoscere specificatamente e con estrema precisione i marcatori tumorali predittivi del cancro. Ma con un problema non di poco momento: la rete non è in grado di illustrare come riesce a saperlo, vale a dire come è in grado di inferire la futura patologia dai marcatori (Castelvecchi, 2019). Per la donna la scelta di una mastectomia preventiva – alla luce del proprio patrimonio genetico – è già squassante. Ma se poi è una macchina – seppure molto accurata nelle sue previsioni – a suggerirla, senza nemmeno essere in grado di darne le spiegazioni, l’impatto emotivo e psicologico è dirompente. La scelta ha una portata drammatica. Anche il profilo etico è in primo piano. Altro esempio: nella maggior parte dei paesi, quando una banca nega un fido, il diritto prevede che essa deve darne spiegazione al cliente. Ebbene, un algoritmo di apprendimento profondo non è in grado di farlo (Castelvecchi, 2019).

Sia il diritto di decifrare l’apprendimento profondo con i suoi algoritmi, sia – correlatamente – una maggiore fiducia nei confronti dello stesso, sono essenziali per accrescere a livello sistemico un approccio più friendly verso l’IA e, quindi, per implementarla su larga scala (Ribeiro, Singh, Guestrin, 2016).

La questione della fiducia è ulteriormente complessa, in quanto le relative esigenze sono funzionali al contesto. Se capire gli algoritmi che supportano suggerimenti circa i programmi televisivi non è di importanza cruciale per la stragrande maggioranza degli utenti, diventa essenziale capire il funzionamento del deep learning con i suoi algoritmi in situazioni di maggiore vulnerabilità degli utenti (Intel – AI spiegabile, consultabile al link). Assumere decisioni di diagnosi nell’assistenza sanitaria o formulare strategie militari avvalendosi di un sistema basato sull’IA esigono una comprensione accurata del processo decisionale sottostante.

Fa da ausilio alla scarsa trasparenza del deep learning l’IA spiegabile – un sistema fondato su regole per spiegare le azioni della IA (come e perché adotta determinate decisioni e produce determinati risultati).

La necessità fondamentale dell’IA spiegabile risponde a una molteplicità di esigenze: rende la tecnologia più trasparente; è importante per rilevare errori e pregiudizi nei dati che potrebbero indurre ad assumere scelte errate o ingiuste; serve a garantire conformità normativa, equità, etica e mancanza di pregiudizi. Ad esempio, l’efficacia di contrastare i reati finanziari potrebbe essere notevolmente migliorata implementando modelli di apprendimento più accurati. Ma consideriamo anche la difficoltà di spiegare ai regolatori tutto questo.

Ciò rinvia ad alcuni dei problemi legati all’IA spiegabile, alcuni dei quali verranno di seguito richiamati:

  • Molti algoritmi dell’IA vanno oltre la comprensione umana – a volte persino di coloro che li hanno creati – e certamente al di là di quella della maggior parte degli utenti finali. Di conseguenza, a volte una spiegazione non sarebbe fruttuosa.
  • È necessario trovare un compromesso tra prestazioni e spiegabilità. Qualora ciascuno step di un modello di IA dovesse essere esplicitato, il processo sarebbe destinato ineludibilmente a rallentare a detrimento del numero di applicazioni e di ulteriori progressi.
  • E’ pressoché impossibile convenire su una nozione univoca di “spiegabilità”: essa è infatti funzione del contesto, dell’innovazione tecnologica, dei settori coinvolti, dei fruitori, dell’epoca in cui viviamo.
  • Essa potrebbe entrare in conflitto con gli interessi delle imprese: spiegare algoritmi e deep learning significa divulgare idee e inficiare la protezione dei segreti industriali a pregiudizio della proprietà intellettuale. Si crea un problema di copyright se algoritmi e deep learning diventano eccessivamente trasparenti. Ciò scoraggerebbe la R&S, gli investimenti, l’innovazione, il progresso, la crescita.
  • Le operazioni di debugging sono tra le più importanti e difficili per la messa a punto di un algoritmo, ma sono anche tra le più delicate poiché vi è il rischio di introdurre nuovi errori nel tentativo di correggere, tramite il debug, quelli esistenti.
  • E’ urgente una disciplina per il sistema di apprendimento automatizzato. Il Codice etico elaborato dalla Commissione Europea individua le pietre miliari nei principi di trasparenza, accountability, solidità, affidabilità tecnica, affinché sia preservata l’autonomia degli individui e il controllo sulle modalità operative dei sistemi stessi d’IA. Tale percorso risulta analogo a quello già tracciato dal GDPR sulla questione della trasparenza degli algoritmi, in particolare agli artt. 12, 13, 21, 22. L’ultimo, specificatamente, prevede che qualora una decisione sia stata adottata in assenza di intervento umano, bensì solo per mezzo di un processo automatico, l’individuo i cui dati fanno riferimento si può avvalere del diritto di ricevere spiegazioni su come detta decisione sia stata intrapresa (Iozzia, 2019).

 

VOTA L'ARTICOLO
(voti: 1, media: 5,00 su 5)

Consigliato dalla redazione

Intelligenza Artificiale: i risvolti negativi di una disciplina volta al progresso

L'intelligenza artificiale fra utopie, distopie, pregiudizi algoritmici

Intelligenza Artificiale: l'altro lato della medaglia. Progresso o disciplina incontrollabile che rischia solo di evidenziare un’afasia tra uomo e macchina?

Bibliografia

State of Mind © 2011-2020 Riproduzione riservata.
Condividi
Messaggio pubblicitario

Messaggio pubblicitario

Messaggio pubblicitario