inTherapy

L’uso nocivo dell’intelligenza artificiale e le nuove minacce alla sicurezza psicologica nazionale e internazionale – Il caso del terrorismo

Gli sviluppi dell’intelligenza artificiale imboccano numerosi filoni sempre più articolati. Quale ruolo ha l'uso nocivo dell'IA sul cyberterrorismo?

ID Articolo: 183816 - Pubblicato il: 06 aprile 2021
L’uso nocivo dell’intelligenza artificiale e le nuove minacce alla sicurezza psicologica nazionale e internazionale – Il caso del terrorismo
Messaggio pubblicitario SFU 2020
Condividi

Cosa accadrebbe se il cyberterrorismo riuscisse a impadronirsi della nostra sfera cognitiva? Tramite i metodi di “brain-reading”, il terrorismo acquisirebbe un enorme volume di big data relativi al suo nemico e accrescerebbe fortemente le capacità predittive riguardanti l’avversario.

 

Il cervello è come lo stomaco:
quello che conta non è quanto ci metti dentro, ma quanto riesce a digerire

Albert Jay Nock (Citato in Selezione dal Reader’s Digest, giugno 1963)

Introduzione: i fattori di contesto

Messaggio pubblicitario Gli sviluppi dell’intelligenza artificiale (IA) avanzano per mezzo di numerosi rivoli – attraversando la vita quotidiana di ognuno – e imboccano numerosi filoni sempre più articolati, alcuni dei quali vanno a vantaggio dell’uomo, altri che ne alimentano paure e distopie.

La distinzione di base adottata nel presente lavoro va in una duplice direzione. Così come si parla di un’etica per le macchine, di una IA benefica e allineata ai valori umani, altrettanto acceso è il dibattito sul malware (combinazione dei due termini “malicious” e “software”; in italiano “codice maligno”). Si tratta della IA nociva, piegata a obiettivi pregiudizievoli per individui, gruppi, società (cfr. Brundage et al., 2008, per l’espressione “Malicious Use of Artificial Intelligence” – MUAI, e per la definizione che gli autori attribuiscono a “malicious” (We define “malicious use” loosely, to include all practices that are intended to compromise the security of individuals, groups, or a society”, pag.9.). Cfr. anche il Rapporto pubblicato da Europol, dall’Istituto interregionale delle Nazioni Unite per la ricerca sulla criminalità e la giustizia-UNICRI e da Trend Microdel, novembre 2020).

La diffusione massiva di vulnerabilità e di codici malevoli è anche facilitata dal crescente fenomeno della posta elettronica spam. Attenendosi ai fatti attuali, il malware ha gioco facile sulla massa mediante la psicosi del Coronavirus. Su quest’ultimo, attraverso il digitale, si è tempestati – e confusi – da informazioni, dati, messaggistica. E all’interno di tale messe si insinuano i virus informatici. Dunque, il virus del virus (quello cyber e quello biologico) e paure sovrapposte – per il virus biologico e per il malware. Infatti lo spam, se di per sé è innocuo (sebbene fastidioso), ma diventa foriero di rischi quando collegato ad altre attività come il phishing.

A inizio d’anno è stato scoperto in Italia un nuovo malware che colpisce gli smartphone Android, soprannominato “Oscorp”, in grado tra l’altro di effettuare chiamate e SMS, disinstallare app, di rubare credenziali bancarie e criptovalute dai portafogli virtuali… Si avverte un senso di incombenza, insicurezza, minaccia, aggressione, aggiramento ed espoliazione della nostra privacy e dei nostri averi da parte di nemici invisibili e potenzialmente onnipresenti. Esso ti vede, noi no. Un’asimmetria informativa che desta paura.

Spostandosi su una frontiera più sofisticata, le tecniche di “lettura del cervello” per contenere gli effetti di malattie neurodegenerative (Di Corinto, 2021) sono suscettibili di dual-use e, di conseguenza, c’è il pericolo che una IA buona possa imboccare una deriva maligna ed esiziale.

Cosa accadrebbe se il cyberterrorismo – ma anche il cybercrime: un binomio di successo – riuscissero a impadronirsi della nostra sfera cognitiva? Tramite i metodi di “brain-reading”, il terrorismo acquisirebbe un enorme volume di big data relativi al suo nemico e accrescerebbe fortemente le capacità predittive riguardanti l’avversario. La suggestione si trasformerebbe in vera e propria soggezione, e ciò senza neppure che si ricorra a un’arma tradizionale e a un attacco terroristico nelle forme già note. Uno scenario distopico.

Una specifica categoria di malware è il “worm”, capace di autoreplicarsi. Non solo: a volte gli strumenti di malware sono in grado di evolversi e di diventare sempre più sofisticati. Di grande attualità, e anche il più pericoloso al mondo, è il malware denominato Emotet, un trojan che ha diverse finalità nocive tra cui soprattutto quella di ottenere l’accesso a contatti e informazioni personali dell’utente ignaro. Emotet, nato come trojan bancario, si è evoluto in una minaccia sofisticata generando un danno informatico di portata molto ampia e duratura. Per sovrammercato, nel corso degli anni, grazie alle sue continue mutazioni e alla sua capacità di migliorare significativamente la sua mimetizzazione, Emotet è diventato sempre più difficile da individuare.

Un parallelismo di quanto a volte accade in Natura davvero inquietante!

A inizio d’anno, una imponente operazione internazionale di cybersicurity è riuscita a neutralizzare le tre botnet di Emotet, cioè le tre reti di server che controllano da remoto le operazioni di Emotet.

Un nuovo malware è il Rogue, uno strumento di spionaggio completo (c.d. RAT – Remote Access Trojan), in grado di spiare i dispositivi sui quali viene installato e di inviare i dati a un server remoto. Il vantaggio è quello di poter essere manovrato persino da uno smartphone. Rogue può venire usato per lanciare campagne di spionaggio a tappeto e raccogliere dati di ogni genere dagli smartphone infettati: da conversazioni su WhatsApp a foto e video privati, a dati bancari, ecc. Ancora, i colpi messi a segno dagli hacker del c.d. Team Egregor sono simbolici e ad alto impatto, come il recente attacco alla metropolitana di Vancouver.

Il darkrweb è naturalmente il “mercato della vulnerabilità” in cui gli hacker si concentrano e si alleano in team per sviluppare nuovi malware, commerciarli, persino affittandoli a canone mensile, per ricattare gli utenti-vittime e riscuotere il riscatto (ransomware).

Oltre che cittadini e imprese, bersagli sono infrastrutture nevralgiche di varia natura, tra cui le Infrastrutture Informative Critiche (IIC), nonché i governi stessi. L’asticella del cyber offensivo dunque si alza progressivamente.

Sotto il grande cappello del malware vi rientrano, tra i fenomeni più importanti, deepfake, cyberterrorismo, cybercrime. Peraltro, i confini tra questi sono porosi e diffratti.

Intelligenza artificiale, terrorismo e paura

Il presente lavoro prende in esame in particolare tre aspetti: le minacce derivanti dall’utilizzo nocivo dell’intelligenza artificiale (MUAI) da parte di un attore aggressivo – il terrorismo interno e sovranazionale -, la guerra psicologica che esso è in grado di sviluppare tramite il MUAI e, infine, la paura collettiva che ne proviene. Concludono alcuni spunti di policy.

Il terrorismo usa il cyber-spazio per tutto lo spettro delle loro attività: dal reclutamento al finanziamento, alla propaganda e, in misura crescente, all’attacco informatico. In più, la maggiore dipendenza dall’intelligenza artificiale in tutte le sfere della società rende virtualmente infiniti i potenziali obiettivi: dai conti correnti dei singoli cittadini alla sicurezza delle strutture nevralgiche dello Stato. Inoltre, il teatro di guerra è un teatro virtuale non più georeferenziato. Ulteriori sono i motivi di fascino della cyberaction da parte dei terroristi, tra cui la capacità di incidere direttamente su un numero maggiore di persone rispetto ai tradizionali metodi terroristici, suscitando quindi una più vasta copertura mediatica, che è in definitiva ciò che i terroristi vogliono. Eppoi, verosimilmente gli attuali terroristi appartengono prevalentemente alla generazione dei Millennials e alla successiva “Generazione Z”: con esse gli strumenti di hacking sono diventati più potenti, semplici da usare, di più facile accesso, meno costosi; i terroristi delle “nuove generazioni” (nel senso più vasto del termine) si avvalgono cioè di un endowment sicuramente più ricco e articolato rispetto a quello disponibile ai terroristi di generazioni passate.

Questi nuovi scenari – che sottendono la guerra psicologica in atto – rendono necessari una metodica fortemente interdisciplinare ed esercizi di cross-fertilisation volti a sviluppare una maggiore resilienza delle leve che influiscono sul sentiment della collettività, minimizzare il contagio della percezione di vulnerabilità e di paura, e contrastare di conseguenza il MUAI.

Si afferma, infatti, che il più elevato livello di minaccia del MUAI è quello legato alla sicurezza psicologica (PS) nazionale e internazionale (Bazarkina-Pashentsev, 2020). Gli autori utilizzano il termine “sicurezza psicologica” (PS) per descrivere un’arena ben distinta della sicurezza delle informazioni. Quest’ultima ingloba la protezione dell’individuo, della società e dello Stato dagli impatti psicologici negativi (in particolare, quelli pregiudizievoli delle basi storiche di una nazione e delle sue tradizioni patriottiche), ma è più ampia rispetto alla PS.

Dunque, subentra la paura… Un grande attore protagonista della destabilizzazione psicologica a livello sistemico.

La paura è soggetta ai fenomeni di massificazione e di contagio. Può propagarsi in ragione della più elevata percezione di minaccia incombente attraverso vari fattori – quali lo svilupparsi di tecnologie IA sempre più sofisticate; correlatamente, le asimmetrie informative tra gli utenti-vittime e gli attori aggressivi; la propaganda da parte di questi ultimi; l’incertezza pervasiva; il forte grado di allerta cui si è costantemente sottoposti; l’effetto eco della paura stessa, che rimbomba fra i gangli reticolari della globalizzazione.

In condizioni di incertezza, dove la probabilità di malware è sconosciuta presso la platea delle potenziali vittime (“incertezza asimmetrica”), la strategia della “erraticità simulata” (“simulated randomness”) ha una elevatissima produttività, ed è ulteriormente accresciuta dall’impatto psicologico dell’“effetto sorpresa” (Fiocca-Montedoro, 2006).

Entra in gioco la psicologia della sicurezza, anche con i suoi effetti paradossali del tutto biased, quando collegati a una riduzione della propria capacità di giudizio.

Messaggio pubblicitario In un clima di tensione, di insicurezza e di spavento, di informazione incompleta, e partendo da una base di conoscenza iniziale, persino alcune informazioni riguardo ai progressi nel campo della cybersicurity possono essere interpretate dall’opinione pubblica in modo biased: ad esempio, nuovi strumenti di contrasto e prevenzione del malware – paradossalmente – possono creare un “effetto annuncio” distorto, vale a dire essi vengono percepiti come un indicatore di accresciuta magnitudo della minaccia da cui doversi difendere (Fiocca, 2016; Fiocca et al., 2016). L’inferenza diventa, dunque, il meccanismo di ragionamento volto a formulare valutazioni circa gli eventi più probabili di verificarsi.

In contesti inferenziali, interviene il problema bayesiano della “estrazione del segnale”: come interpretare o utilizzare una nuova informazione acquisita, partendo da una base di conoscenza iniziale? quale valore dobbiamo o possiamo assegnare alla nuova informazione proveniente dall’ambiente esterno (tra cui gli altri agenti)?

La pervasività dell’incertezza può distorcere l’assegnazione della distribuzione di probabilità associata al verificarsi di un episodio di malware (ad esempio, di cyberterrorismo), perfino in presenza di una riduzione oggettiva del rischio derivante dalle azioni di contrasto.

Nelle procedure inferenziali, l’errore cognitivo che l’individuo tende a commettere nasce generalmente dal fatto che nel mondo reale mancano o sono sbagliate o non sono utilizzate correttamente/pienamente le informazioni disponibili. La percezione del rischio, di conseguenza, deriva sia da fattori soggettivi (“innumeracy”, “bounded rationality”, e così via), sia dalla combinazione tra il dato oggettivo e gli elementi soggettivi.

Tale mix tra fattori oggettivi e soggettivi è fòmite di una determinata “relazione posizionale” fra l’individuo e le condizioni dell’ambiente esterno, dove il primo percepisce se stesso come il soccombente, vittima della propria vulnerabilità generata dall’ambiente esterno.

Inoltre, la paura si insinua e si propaga fra la folla mediante network e meccanismi che la rendono contagiosa e autoalimentantisi: l’effetto eco, l’effetto annuncio, l’effetto gregge, la suggestione, l’emulazione, il rumor, il feedback positivo (tecnicamente, quest’ultimo consente di accelerare o intensificare un processo in seguito agli stimoli ricevuti; vale a dire che all’aumentare dello stimolo iniziale, il prodotto finale tende ad aumentare secondo un “circolo vizioso/virtuso”).

La paura contagiosa: la prospettiva delle neuroscienze

L’empatia costituisce un fattore dirimente nella comunicazione sociale che coinvolge l’esperienza degli stati sensoriali ed emotivi degli altri, come ad esempio la paura. E’ come se quest’ultima attraversasse la collettività mediante vasi comunicanti o all’interno di un ambiente osmotico.

Nella letteratura delle neuroscienze, il meccanismo che rende la paura contagiosa – e, quindi, autoalimentantesi – è collocato nel cervello. In particolare, in un nuovo studio, condotto da un gruppo di ricercatori dell’Università di Stanford che si sono avvalsi di cavie (Smith et al., 2021), viene illustrato che risposte comportamentali empatiche specifiche – come il senso di dolore e il senso di paura – sono mediate da strutture neurali che si proiettano dalla corteccia cingolata anteriore (ACC) a diverse regioni cerebrali: il “nucleus accumbens” (NAc) – che assolve una funzione importante nei processi cognitivi come il senso di avversione, di motivazione, di ricompensa e numerosi ulteriori meccanismi di rinforzo dell’azione – e l’“amigdala basolaterale” (BLA) – che è un complesso nucleare che gestisce le emozioni e, in particolare, la paura.

E’ stato individuato che l’ACC genera risposte comportamentali empatiche del senso di paura, cioè il rapido trasferimento sociale della paura mediante attività nelle proiezioni ACC all’amigdala basolaterale (BLA).

Chiarire meccanismi specifici del circuito che mediano varie forme di empatia attraverso modelli animali accessibili sperimentalmente risulta necessario per generare ipotesi che possono essere valutate e confermate in soggetti umani.

La validazione di tali ipotesi porterebbe ad affermare che l’attività tra ACC e BLA faccia sì che la percezione dell’esistenza di avversari aggressivi, tramite l’effetto contagio, ponga in atto una rapida trasmissione sociale della paura. E si sa che la paura è un’arma esiziale nella guerra psicologica. E la pericolosità di tale arma è rafforzata dal contagio stesso.

L’aggressore diventa quindi capace di controllare e tenere sotto scacco il mood collettivo generando una spirale sempre più ampia, che inghiottisce progressivamente la collettività, e di conseguenza una possibile destabilizzazione sistemica.

Nel presente lavoro, un esempio per tutti è il cyberterrorismo (cfr. Fiocca et al., 2006).

Nella prospettiva delle neuroscienze, le minacce alla sicurezza nazionale e internazionale si propagherebbero e si trasferirebbero quindi in maniera contagiosa empaticamente, attraverso l’attività di una parte della corteccia cingolata e di una regione dell’amigdala. In tale chiave interpretativa, l’effetto eco, l’effetto annuncio, l’effetto gregge, la suggestione, l’emulazione non sono altro che forme di empatia attraverso cui la paura diventa socialmente contagiosa.

MUAI e sicurezza psicologica

L’impatto dell’uso nocivo della IA sulla sicurezza psicologica è un fattore dirimente da valutare perché, tra le conseguenze, tende a condizionare la visione presso l’opinione pubblica circa l’intelligenza artificiale, a detrimento dei suoi progressi anche nelle direzioni virtuose.

La gradazione in escalation e imponderabile del cyberterrorismo è sintetizzabile nella tassonomia circa l’implementabilità sul MUAI nazionale e sovranazionale – da quella effettiva a quella più remota – di Bazarkina e Pashentsev (2019): (i) attuali pratiche MUAI; (ii) capacità MUAI esistenti che non sono state ancora utilizzate nella pratica (questa probabilità di implementazione è associata a un’ampia gamma di nuove capacità della IA in rapido sviluppo); (iii) future capacità MUAI basate sia sugli sviluppi attuali sia sulla ricerca futura; (iv) rischi non identificati, noti anche come “l’ignoto nell’ignoto”. Attraverso il fitto velo dell’“l’ignoto nell’ignoto”, l’effetto sorpresa raggiunge la massima produttività.

Uno strumento frutto del progresso tecnologico dotato di spillovers positivi per la società, può essere trasformato in strumento nocivo altrettanto efficace per la società stessa. Un tipico caso è proprio quello dell’infrastruttura tecnologica: essa facilita l’accesso alle informazioni accrescendone quindi il valore; ma proprio questo sua caratteristica si presta a trasformarla in strumento nocivo e di disvalore. Insomma, si tratta di un dual-use. Molto dipenderà dal suo grado di lock-in (cioè, dal costo di trasformazione tecnologica: dal “benevolo” al “malevolo”) e dalla sua velocità di trasformarsi a mezzo di contro-offensiva, una volta mutatosi in nocivo. Si tratta, quindi, di una continua rincorsa, di un processo iterativo e di interazioni reciproche bidirezionali, in una spirale in escalation cybersecurity-cyberterrorismo.

Le minacce del cyberterrorismo destinate a produrre un impatto sulla sicurezza psicologica sono numerose (per una rassegna esaustiva, cfr. Bazarkina-Pashentsev, 2020). Ci limiteremo a richiamarne alcune. La crescita di sistemi integrati e onnicomprensivi di IA: numerose infrastrutture – quali i sistemi di trasporto robotici ad autoapprendimento con gestione centralizzata basata sulla IA – possono diventare preziosi obiettivi per il terrorismo ad alta tecnologia. I terroristi, qualora assumano il controllo del sistema di gestione dei trasporti di una grande città, potrebbero causare numerose vittime, panico e creare un clima psicologico di ripiegamento su se stessi foriero di ulteriori azioni ostili.

Ancora, il ri-orientamento ad opera del terrorismo dei sistemi commerciali di IA e la creazione di deepfake (vocali e visive) possono colpire bersagli simbolici – tipicamente, leader politici e personaggi carismatici, ovvero icone culturali, religiose e centri di poteri –; sono capaci di produrre un impatto mediatico internazionale e danni alla reputazione; sono in grado di condizionare campagne politiche, di manipolare future elezioni e la politica globale, pregiudicando la stabilità geopolitica e la sicurezza psicologica.

Molto efficaci per il terrorismo sono anche le armi prognostiche – cioè metodi di analisi predittivi basati sulla IA e sui big data, che consentono di predire il futuro (disordini civili, epidemie, crisi economiche, risultati elettorali, ecc.) – a detrimento dell’avversario.

Conclusioni

Le varie politiche pubbliche per la sicurezza psicologica devono perciò agire ad ampio spettro: comunicazione, alfabetizzazione digitale, supporto psicologico, campagne di informazione, investimenti in ricerca e sviluppo delle tecnologie digitali nel campo della cybersecurity, investimenti in capitale umano, cooperazione, best practice, norme di diritto internazionale, aumento dello stock di dotazioni istituzionali, analisi predittive da parte di agenzie statali e sovranazionali per prevenire disordini sociali, crisi economiche, epidemie, failing States – nei cui numerosi gangli si insidia il terrorismo interno e sovranazionale.

Ciò allo scopo sia di circoscrivere il contagio della paura – tale contagio già di per sé costituisce un’arma – che si estende a macchia d’olio fra aree territoriali e sistemi-paese, settori produttivi, mercati finanziari e valutari, ecc.; sia di sviluppare margini crescenti di resilienza mentale e materiale (a difesa di infrastrutture nevralgiche di varia natura; di comparti produttivi, ad esempio, di quello agro-alimentare; in campo sanitario; nella protezione dei dati; contro le manipolazioni delle criptovalute; per la stabilità geopolitica, dei sistemi politici e di quelli istituzionali).

Con il depotenziamento del contagio della paura già un tratto di strada è guadagnato ai danni del cyberterrorismo.

 

VOTA L'ARTICOLO
(voti: 2, media: 5,00 su 5)

Consigliato dalla redazione

Intelligenza Artificiale: i suoi strumenti al servizio del terrorismo

L'Intelligenza Artificiale: il nuovo teatro di guerra del terrorismo

Le tecnologie del “terrore” costituiscono ormai parte strutturale dell' Intelligenza Artificiale globale e godono di una significativa produttività

Bibliografia

State of Mind © 2011-2021 Riproduzione riservata.
Condividi
Messaggio pubblicitario

Messaggio pubblicitario

Messaggio pubblicitario