L’Intelligenza Artificiale: il nuovo teatro di guerra del terrorismo

Le tecnologie del “terrore” costituiscono ormai parte strutturale dell' Intelligenza Artificiale globale e godono di una significativa produttività

ID Articolo: 171562 - Pubblicato il: 29 gennaio 2020
L’Intelligenza Artificiale: il nuovo teatro di guerra del terrorismo
Messaggio pubblicitario SFU Magistrale
Condividi

Sembra che ciascun progresso realizzato dall’IA con finalità positive proceda di pari passo con un suo uso distorto. In tal senso, l’IA è decisamente dual use: è in grado di effettuare un enorme volume di operazioni complesse in pochissimo tempo e il suo uso – positivo o negativo – dipende esclusivamente da chi lo programma. Quali strumenti dell’IA sono al servizio del terrorismo?

 

Messaggio pubblicitario Verso la nebulosa di un futuro incerto, non si conoscono le successive evoluzioni dell’integralismo islamico, ora che l’Isis è stato privato dei vertici. È plausibile che, per la sua enorme flessibilità, diffusione, mimetismo e poliformismo, il terrorismo emergerà secondo nuove modalità e potrà contare su lupi solitari, foreign fighter di ritorno, hater, soggetti mentalmente instabili e perfino su adolescenti e bambini, piccole creature inconsapevoli e inermi (Fiocca, 2019a).

Una cosa tuttavia è certa, la guerresca contrapposizione all’alterità continuerà a vivere e a librarsi nel cyberspazio senza alcuna barriera geografica, sociale e cognitiva della sfida.

Un importante studio (Brundage, M. et al., 2018) condotto da un team di 26 accademici e ricercatori e 14 istituzioni, fra cui le Università di Oxford, Cambridge e Stanford scandaglia l’uso malevolo dell’intelligenza artificiale (il cui acronimo è Muai – Malicious use of artificial intelligence). Il segnale forte che lo studio ci rimanda è che ciascun progresso realizzato dall’IA con finalità positive procede di pari passo con un suo uso distorto. In tal senso, l’IA è decisamente dual use: è in grado di effettuare un enorme volume di operazioni complesse in pochissimo tempo e il suo uso – positivo o negativo – dipende esclusivamente da chi lo programma. In prospettiva – prevede il Rapporto – l’IA è destinata a diffondersi (i) per numero di attori capaci di ricorrervi per effettuare attacchi, (ii) per maggiore frequenza di questi ultimi, (iii) per numero di obiettivi che plausibilmente verranno presi di mira. La prospettiva è quindi una IA maligna sempre più intrusiva, pervasiva, combattiva.

Oggetto del presente contributo è una breve rassegna degli strumenti principali di intelligenza artificiale (IA) che gruppi terroristi e ribelli hanno a disposizione e di cui si servono per smuovere – in una escalation psicologica – l’emotività internazionale e per creare un clima di incertezza, imprevedibilità e panico.

La paura viene amplificata dai media – da quelli più tradizionali fino alle info-tecnologie –, che puntano sulla novità e sulla spettacolarità. Se il terrorismo impiega la paura come arma, i mezzi di informazione ne moltiplicano l’efficacia.

In un contesto di asimmetria informativa, i terroristi sanno quali saranno i successivi bersagli, le popolazioni possono solo augurarsi di non essere i prossimi. E in tale clima di incertezza e paura, le loro menti, i loro comportamenti, le abitudini, gli stili di vita, le modalità interazionali e le preferenze tendono a mutare. Il terrorismo, infatti – con il suo senso di incombenza, serialità, diffusione delle sue azioni, nella sua “impalpabilità”, con il suo andamento carsico e con il salto di qualità tecnologica – tende a rimodellare, sul piano individuale, il sistema delle preferenze degli agenti. In condizioni di incertezza, quando la probabilità del verificarsi di un certo evento è sconosciuta (incertezza asimmetrica), la strategia dell’“erraticità simulata” ha una elevatissima produttività (rapporto tra output ottenuto e input impiegato) ed è ulteriormente accresciuta dall’impatto psicologico dell’“effetto sorpresa” (Fiocca, 2019b).

Destabilizzazione e nuove minacce alla sicurezza psicologica internazionale (Ips – International psychological security) attualmente sono il risultato del grande armamentario che il cyber-terrorismo ha a disposizione. Esso si colloca sotto il grande cappello del Muai. Le tecnologie artificiali del “terrore” costituiscono ormai parte strutturale della IA globale – essendone una dei suoi lati oscuri – e godono di una significativa produttività.

Tali strumenti progrediscono rapidamente sviluppando una guerra di “terrore all’interno del terrore”. Sull’altro versante – quello dell’avversario – la strategia centrale per la difesa e prevenzione si fonda su policy volte alla “cultura della sicurezza”. Quest’ultima è poliedrica, poiché l’arena coinvolge numerosi attori, àmbiti, conoscenze, aree geografiche, risorse (economiche e non). Inoltre, essa è funzionale alle cause promosse dai terroristi e dai ribelli (Fiocca e Montedoro, 2006; Fiocca et al., 2016). Sul piano delle tecnologie artificiali, la sicurezza si concentra sull’architettura di un’intelligenza artificiale volta a neutralizzare e a inibire la resilienza dell’IA di cui si è dotata il terrorismo.

Messaggio pubblicitario L’IA può essere usata per automatizzare gli attacchi terroristici, ad esempio mediante l’utilizzo di droni (aeromobili a pilotaggio remoto, noti con diversi acronimi quali RPA-Remotely piloted aircraft, UAV-Unmanned aerial vehicle, RPV-Remotely piloted vehicle, ROA-Remotely operated aircraft o UVS- Unmanned vehicle system) o lo sviluppo di apposite armi intelligenti. I droni hanno raggiunto un elevato livello qualitativo e caratteristiche tali da poter essere impiegati in innumerevoli scenari operativi. Un esempio recente per tutti di questo tipo di IA è l’attacco con droni nello scorso settembre rivendicato dai ribelli houthi dello Yemen contro due installazioni petrolifere dell’Arabia Saudita, le più grandi del mondo.

Ne consegue che l’uso maligno della IA può servire a mettere fuori gioco infrastrutture strategiche – reali e finanziarie – in ogni area del mondo. Può minare a livello sistemico snodi cruciali.

Oltre ai droni, ci limitiamo a citare alcuni dei nuovi strumenti maligni della IA in mano al terrorismo: “deepfake”, “fake people”, “fake face”, chat-bot in grado di viralizzare fake news o di crearne di nuove in modo sempre meno riconoscibili, il TikTok, la propaganda.

La “deepfake” consiste nella sostituzione di volto, mimetica, voce di una persona all’interno di un video neurale già esistente e sovrapponendo ad esso un altro del tutto nuovo, utilizzando la tecnica di apprendimento automatico non supervisionato denominata rete antagonista generativa (generative adversarial network – GAN). La sovrapposizione dei video neurali genera un framework capace di rappresentare uno o più individui che parlano di fatti e/o realizzano atti in realtà mai verificatisi (Fiocca, 2019b). Sembra una deliziosa madeleine che i terroristi possono gustare!

I “fake people” alludono a persone non realmente esistenti, ma che possono essere i protagonisti di finti video, riguardanti ad esempio proteste, guerriglie, attacchi allo scopo di influenzare la percezione del mondo reale, creando panico, pregiudizi, odio (Bazarkina, 2019). Insomma, il brodo di coltura del terrorismo!

Le “fake face” si fondano sull’algoritmo StyleGAN che prevede due sistemi artificiali in concorrenza fra loro: un “generatore” e un “discriminatore”. Il primo cerca di creare immagini artificiali difficilmente distinguibili da foto vere; il secondo riceve sia immagini modificate sia fotografie originali e tenta di distinguere le une dalle altre. I data scientist hanno constatato che il generatore è ormai diventato talmente smart che lo stesso discriminatore non è più sempre in grado di distinguere le foto vere da quelle modificate.

Il risultato dell’algoritmo StyleGAN è la creazione di fotografie sintetiche, e dunque false, di persone che non esistono. Che grande opportunità, anche questa, per il terrorismo e la guerriglia!

Le fake news hanno contribuito enormemente ad alimentare una rabbia e una collera montate nel corso di molti anni. A far gioco per l’estremismo islamico è che le news false si propagano molto di più e molto più velocemente di quelle vere (Vosoughi e Aral, 2018). Gli autori hanno misurato la probabilità con cui un tweet riusciva a creare una “cascata” di retweet, cioè di nuovi rilanci. Un’informazione falsa ha il 70 per cento di probabilità in più di essere ripresa e rilanciata rispetto a una vera. La conseguenza è che la verità raramente raggiunge più di 1000 persone, mentre l’1 per cento delle falsità di maggiore “successo” raggiunge in media un numero di utenti che va da 1000 fino a 100.000. Anche il contenuto emotivo è risultato importante per determinare la fortuna di un tweet. Le notizie false più rilanciate sono quelle che ispirano paura, disgusto e sorpresa, mentre le notizie vere suscitano più curiosità, tristezza, gioia e fiducia.

Sul sito ufficiale, “Make Your Day – Real People. Real Videos”, con oltre 800 milioni di utenti nel mondo e un miliardo di video visti ogni giorno, TikTok viene definita la piattaforma leader al mondo riguardo ai video brevi. TikTok permette a ognuno di sfogare le proprie capacità creative usando direttamente il proprio smartphone e si impegna a costruire una comunità che incoraggi gli utenti a condividere le loro passioni e a esprimersi creativamente attraverso i loro video.

Ma è veramente cosi?

Costruito in Cina (Douyin, è il suo nome in cinese), oggi – nell’ondivagare dei giovani nel loro indefesso searching sui social – è assurto tra i social più amati (il 30% dei suoi utenti ha meno di 18 anni). Ha tuttavia un problema di privacy: la Federal Trade Commission le ha inflitto una multa di ben 5,7 milioni di dollari per non aver rispettato il COPPA (Children’s Online Privacy Protection Act), che prevede il consenso dei genitori per il trattamento dei dati dei minori di 13 anni.

E’ il social più amato dai giovani in quanto eccezionalmente interattivo e divertente? Perché lancia sfide originali e buffe tra gli utenti? E il suo principale problema si limita a quello della privacy? Ahimè, niente di tutto ciò…

Proprio perché particolarmente popolare tra gli adolescenti, viene sfruttato dai terroristi come piattaforma di propaganda. A denunciare il fenomeno è stata la stessa ByteDance, la compagnia proprietaria della piattaforma. Attraverso la piattaforma, i miliziani sono riusciti a trasmettere video con persone inneggianti al terrorismo, ma anche immagini di ragazzi affascinanti, cuori, cavalli in corsa e cadaveri. Un artato mix, nel tentativo di mimetizzarsi sì, … ma, volutamente, neppure troppo…

Prima di essere rimossi, alcuni di questi account sono riusciti a raggiungere tuttavia circa un migliaio di follower.

Secondo alcuni esperti, l’accattivante modalità per propagare l’ideologia del terrorismo permette di viralizzare i messaggi scolpendoli nella memoria collettiva. Questa modalità comunicativa risulta di gran lunga più incisiva degli stessi sermoni o dei trattati teologici. Tutto diventa coinvolgente per i giovani: dalla rima e dal ritmo ai testi e ai messaggi evocativi.

Questi argomenti rinviano a un’altra arma info-tecnologica: la cyber-propaganda terroristica e dei guerriglieri. La geometria IA-big data-profilazione-georeferenziazione permette ai terroristi/miliziani di gruppi ribelli di individuare specifiche categorie di utenti particolarmente vulnerabili e suggestionabili alla manipolazione della propaganda. Tale geometria può ulteriormente avvalersi dall’applicazione del principio della “frequenza efficace”. Questa è il numero medio di volte in cui i soggetti appartenenti al target group (nel presente caso i destinatari profilati per la propaganda alla lotta) devono essere esposti a un messaggio o contattati nel corso di una campagna di fidelizzazione affinché diano una specifica risposta. Verosimilmente, c’è una relazione inversa tra manipolabilità e numero di contatti necessari per indurre un soggetto a unirsi alla lotta. Il contenuto dei messaggi che i gruppi terroristici diffondono sulla base dei dati, delle profilazioni e georeferenziazioni ottenute, è prodotto tramite robot speciali e diventa automatico nel tempo. Attraverso queste sofisticate tecniche di elaborazione dei big data, l’estrazione delle informazioni consente ai gruppi terroristi/ribelli di battere in una certa direzione, di insistere in un determinato momento e far prevalere il materiale di propaganda terroristica su altri messaggi propagandistici e pubblicitari (Bazarkina, 2019).

La propaganda terroristica include anche materiale di aggiornamento specializzato in tecnologia dell’informazione, comunicazione e sicurezza. Fa parte di tale documentazione la rivista Kybernetiq, per i data scientist che volessero ingrossare le fila della “guerra santa cibernetica”, in una chiave altrettanto innovativa e sofisticata del “cyberpunk” (Martino, 2016 e Bazarkina, 2019). Il “cyberpunk” tratta appunto di scienze avanzate, quali l’information technology e la cibernetica, abbinate a un certo qual grado di ribellione o mutamento radicale nell’ordine sociale. Un mix affatto chic di tecnologia avanzata, contestazione ed esigenza estetica elitaria. Altro visibilio per il terrorismo!

Pertanto, come la paura ha un uso duale – destabilizza il nemico e attrae proseliti -, altrettanto l’intelligenza artificiale in mano a gruppi terroristici/ribelli è percepita come minaccia incombente da un lato e fidelizza dall’altro. Anche la dotazione di tecnologie di IA è dunque un sistema di segnalazione (signalling) per entrambe le parti avversarie. È necessario un alto livello di resilienza all’impatto informativo e psicologico di tale utilizzo da parte della collettività.

In una fase storica, come quella attuale, l’abbreviazione urgente, la comunicazione veloce, il moto perpetuo virtuale, la viralizzazione, l’“effetto gregge”, le verità troppo nette o, al contrario, evanescenti, e i pregiudizi stanno spiazzando e prendendo il posto di una propria capacità critica, di un autonomo processo decisionale e delle funzioni cognitive individuali.

E non è proprio questo ciò che ha sempre voluto il terrorismo? L’IA maligna ne diventa un potente alleato.

 

VOTA L'ARTICOLO
(voti: 2, media: 5,00 su 5)

Consigliato dalla redazione

Terrorismo come la psicologia sociale ci aiuta a capire la mente degli attentatori

Al di là della paura: la psicologia del terrorismo

Spesso chi commette atti di terrorismo non ha personalità sadica o psicopatica, bensì è una persona ordinaria che viene condizionata da dinamiche di gruppo

Bibliografia

State of Mind © 2011-2020 Riproduzione riservata.
Condividi
Messaggio pubblicitario

Messaggio pubblicitario

Messaggio pubblicitario