expand_lessAPRI WIDGET

Violazione della privacy mentale: il neuromarketing politico e la manipolazione dei processi democratici

Quali informazioni del nostro pensiero possono essere condivise? Cos'è la privacy mentale? E come il neuromarketing politico può influenzare gli elettori?

Di Federico Zanella

Pubblicato il 28 Mag. 2020

Lo scandalo di Cambridge Analytica del 2018, in cui è avvenuta la raccolta di alcuni dati personali degli utenti con scopi manipolativi, invita a riflettere su numerosi temi di rilevanza etica, oggi sempre più rilevanti.

 

 Lo scandalo del 2018 di Cambridge Analytica, azienda Britannica di data analysis, è senz’altro una tra le recenti vicende giornalistiche che ha avuto una eco di portata globale. Un contributo per la diffusione del caso è dovuto a The Great Hack, documentario di Jehane Noujaim e Karim Amer e prodotto da Netflix. La narrativa del documentario si struttura attorno ai contributi di alcuni degli attori direttamente coinvolti nel caso ed esemplifica la possibilità di utilizzare i dati personali online per prevedere e influenzare il comportamento umano senza che le persone ne siano consapevoli. I dati sono stati raccolti attraverso un’app chiamata thisisyourdigitallife, sviluppata da l’accademico Aleksandr Kogan attraverso la sua società Global Science Research (GSR). In collaborazione con Cambridge Analytica, centinaia di migliaia di utenti sono stati pagati per fare un test sulla personalità e hanno accettato di raccogliere i loro dati per uso accademico. Tuttavia, l’app ha anche raccolto le informazioni degli amici di Facebook dei testisti, portando all’accumulo di dati di decine di milioni di persone. Cambridge Analytica, utilizzando l’analisi dei big data, ha creato dei profili psicografici al fine di indirizzare successivamente gli utenti con annunci digitali personalizzati e altre informazioni manipolative. Secondo gli autori, questa profilazione e targetizzazione è stata utilizzata per far oscillare intenzionalmente campagne elettorali in tutto il mondo.

La rilevanza neuroetica del caso CA

La vicenda raccontata da The Great Hack, più che una narrazione approfondita di un fatto di cronaca, assomiglia ad un racconto distopico Huxleyano. Alcuni autori infatti sostengono che, in un contesto sperimentale, le metodologie utilizzate da Cambridge Analytica non mostrino effetti tanto significativi da trovare un così chiaro riscontro nella realtà (Gibney, 2018). Ciò nonostante, il caso Cambridge Analytica suggerisce numerosi temi di rilevanza etica che meritano di essere approfonditi.

Centinaia di migliaia di americani hanno risposto al sondaggio, abbiamo costruito un modello composto da quasi 5000 data point con cui possiamo simulare la personalità di ogni adulto negli Stati Uniti. Il comportamento dipende dalla personalità e ovviamente influenza il voto. [..] Se possiamo trarre un insegnamento da questi eventi, è che la tecnologia può davvero fare la differenza e continuerà a farla per molti anni. (Alexander Nix, CEO di Cambridge Analytica)

Ciò che ha reso realizzabile quanto dichiarato da Alexander Nix è stato l’impiego di metodi e tecniche provenienti dagli ambiti di Neuromarketing – nella sua declinazione politica – e marketing politico 2.0. Il neuromarketing è un campo di studi che si occupa dell’applicazione di metodi neuroscientifici per analizzare e comprendere il comportamento umano, in relazione al mercato e alla sua interazione con esso (Lee et. al, 2007). Il marketing politico 2.0 invece, si avvale di tecniche di big data analysis, come il “behaviour-reading”, per identificare e analizzare le preferenze e le attitudini politiche degli elettori e successivamente influenzarne il voto (Islam, 2019). Un metodo che esemplifica la tecnica del “behaviour-reading” è stato sviluppato da due accademici dell’Università di Cambridge, David Stillwell and Michal Kosinski. Nel loro studio (Kosinski et. al, 2013), i due psicologi riportano la possibilità di predire con elevata accuratezza informazioni quali l’orientamento sessuale e tratti di personalità esaminando l’attività online degli utenti. Inizialmente i ricercatori hanno sottoposto a 58000 utenti un test di personalità conosciuto come Big Five, che misura cinque scale di personalità: estroversione, apertura mentale, coscienziosità, nevroticismo e amicalità. I tratti di personalità di ogni utente sono stati correlati, tramite algoritmi di machine-learning, ai likes apposti ai contenuti di Facebook, creando così un modello che rappresenta dei profili di personalità. Questi, chiamati profili psicografici, sono utilizzati dagli esperti di marketing politico per compiere operazioni di micro-targeting, una tecnica di comunicazione politica che consiste nell’inviare specifici messaggi mediante diversi canali ad un determinato sottogruppo di individui. Lo scopo è quello di creare una relazione tra il potenziale elettore e il partito politico che possa influenzarne il voto (Bodó et. al, 2017).

La privacy nell’era dei Big Data

In uno tra i momenti più significativi del documentario, la giornalista Carol Cadwalladr, durante un’intervista chiede a Christopher Whyle, ex dipendente di Cambridge Analytica, se i dati da loro utilizzati fossero stati sfruttati ad insaputa degli amici degli utilizzatori di thisisyourdigitallife.

Sì, la storia è piena di casi di esperimenti profondamente immorali, giocavamo con la psicologia di una nazione intera senza il loro consenso ma non solo, lo stavamo facendo nell’ambito di un processo democratico.

Il tema della privacy e del trattamento dei dati nell’ambito del behaviour-reading è stato ampiamente discusso. In questo contesto si parla di “privacy mentale”, che può essere definita come l’abilità di determinare quali informazioni rispetto al nostro pensiero possono essere condivise con altri (Westin,1967). In Europa ad esempio, il GDPR considera illegale l’elaborazione di dati comportamentali – compresa l’attività online – da parte di terzi, senza previo consenso informato degli utenti (McCarthy,2019). La violazione della privacy mentale dell’individuo, come mostrato dal caso in esame, può provocare conseguenze lesive sia per il singolo sia a livello sociale.

Violazione della privacy mentale e libertà cognitiva

Ricordate quei quiz per creare modelli di personalità degli elettori? […] Il grosso delle risorse era per quelli a cui pensavamo di poter far cambiare idea. Li chiamavamo i persuadibili. […] Abbiamo progettato contenuti personalizzati per colpire quegli individui […] li bombardavamo di video, articoli, immagini finché non vedevano il mondo come lo volevamo noi. (Brittany Kaiser, dipendente di Cambridge Analytica)

Il caso Cambridge Analytica si annovera tra i possibili scenari causati dalla violazione della privacy mentale. L’ex dipendente, infatti, afferma che Cambridge Analytica abbia utilizzato i dati personali degli utenti per interferire con il processo democratico minando al nucleo morale stesso del sistema politico: la libertà e l’autonomia dell’individuo di decidere. In senso più ampio, è stata esercitata una influenza sul diritto di autodeterminazione degli elettori, ovvero il diritto fondamentale di pensare liberamente e autonomamente. (Center for Cognitive Liberty and Ethics). Nonostante questo diritto sia incluso in trattati come l’ International Covenant on Civil and Political Rights o l’European Convention on Human Rights, Bublitz (2011) fa notare che non ci sono definizioni riguardo al significato, agli scopi o le possibili (e pratiche) violazioni. Questo perché la mente non è stata tradizionalmente considerata come una entità vulnerabile o passibile di intrusioni esterne o interferenze (Bublitz and Merkel, 2014; McCarthy,2019).

Una possibile spiegazione di questa credenza è attribuibile ai metodi di indagine di cui la ricerca nell’ambito del neuromarketing e del decision-making si avvale e ai risultati che questa ha fino ad ora fornito. Alcuni autori, attraverso studi fMRI, affermano di poter identificare e prevedere le scelte dei consumatori, costituendo quindi uno strumento di behaviour-reading. Altri neuroeticisti argomentano che, anche se così fosse, la paura che un utilizzo improprio di questi strumenti sarebbe infondata. Infatti, l’accesso ai dati di brain imaging sarebbe limitato ai soli partecipanti delle ricerche, spesso un campione scarsamente numeroso. Siccome nel contesto accademico i dati sono raccolti previo consenso informato dei partecipanti, l’accesso a questi dati non costituirebbe una violazione della privacy mentale (SJ Stanton et. al 2017). E’ noto anche che le tecniche di brain imaging permettono solo inferenze di tipo correlazionale rispetto ai compiti indagati e l’attività osservata. Si tratta di fatto di metodi probabilistici che non forniscono informazioni dirette dei contenuti mentali indagati, spesso relativi a compiti fittizi creati ad hoc dagli sperimentatori. Le informazioni ottenute da metodi di behaviour-reading basate sui big data si riferiscono invece alla reale e spontanea attività degli individui. Neil Levy (2007) afferma che la mente non è solo contenuta nel cervello, ma si estende oltre questo, nel mondo, e ogni sua posizione ha una diretta rilevanza etica. L’attività online, e i dati ricavati da questa, costituiscono proprio una estensione della mente dell’individuo. Per questo, l’uso improprio della big data analysis può costituire una paura fondata, come testimoniato dal caso Cambridge Analytica.

Sarà chiaro al lettore che la determinante di tutti gli scenari supposti riguardi in primis l’accesso ad informazioni strettamente personali. La ricerca in ambito accademico si impegna a seguire specifici standard etici rispetto al trattamento dei dati e ciò garantisce il rispetto dei diritti degli individui coinvolti. Questi standard dovrebbero essere estesi a chiunque raccolga o elabori dati personali, anche in ambito privato-aziendale. Ciò nonostante è possibile, come si è visto, che l’accesso e l’uso improprio avvengano per mezzo di azioni illegali. Per mantenere la privacy mentale quindi dovremmo

alzare mura difensive rispetto ad intrusioni indesiderate. (Bublitz e Merkel, 2014)

Nella pratica, potrebbe rendersi necessario l’obbligo dei provider internet di fornire l’opzione di una navigazione totalmente anonima che impedisca la profilazione delle attività online.

Dovete essere consapevoli di come i vostri dati influenzano la vostra vita. C’è in ballo la dignità di essere umani. (David Carroll, colui che ha denunciato Cambridge Analytica)

 

Si parla di:
Categorie
RIFERIMENTI BIBLIOGRAFICI
CONSIGLIATO DALLA REDAZIONE
Privacy e AI: la tutela delle informazioni personali e le nuove tecnologie
La scia dietro di noi: profumo e dati

Privacy, tutela delle informazioni personali, valore ecosto di tale tutela sono temi molto dibattuti per la loro valenza giuridica ed economica

ARTICOLI CORRELATI
Dear Man: l’arte della comunicazione efficace

Con 'Dear Man' si indica una tecnica di comunicazione che insegna a gestire situazioni emotive e conflittuali in modo assertivo ed efficace

Fonosimbolismo, tra testi e musica: anche le parole “suonano”

Il fonosimbolismo è un fenomeno per il quale senso e suono di una parola si confondono concorrendo a conferirle un significato

WordPress Ads
cancel