La democrazia manipolata nell’era digitale dei social network

Uno studio su come i social network possano influenzare le connessioni sociali e il flusso di informazioni modificando comportamenti e processi decisionali

ID Articolo: 168301 - Pubblicato il: 17 settembre 2019
La democrazia manipolata nell’era digitale dei social network
Messaggio pubblicitario SFU Magistrale
Condividi

Una recente analisi pubblicata su Nature, di Stewart e colleghi (2019), mostra come i social network siano in grado di manipolare il flusso di informazioni e le connessioni sociali tra individui, distorcendo la loro percezione su come altri, appartenenti alla medesima comunità elettorale, voteranno, alterando di conseguenza l’esito elettorale.

 

Messaggio pubblicitario Le democrazie, ovvero quelle forme di governo che garantiscono a tutti gli individui la partecipazione in piena uguaglianza a qualsivoglia processo decisionale, richiedono un elemento imprescindibile: la “corretta” informazione di coloro che si apprestano a prendere una decisione (Bergstrom et Bak-Coleman, 2019).

I giornali, i programmi televisivi di confronto e dibattito, le radio, fin dalla loro nascita, hanno rappresentato i principali veicoli di diffusione dell’informazione, il modo più diretto e rapido a disposizione per persuadere e convincere le comunità elettorali o più in generale gli individui.

Tuttavia da qualche decennio questi hanno subito un rapido oscuramento da parte dei social network che si sono imposti con forza come canali informatici principali e preferenziali per la maggior parte degli individui di tutto il mondo, sostituendo qualsiasi tipo di conversazione e confronto su carta o broadcast.

Al contrario dei precedenti, essi consentono in tempo reale e con un click di interagire e condividere opinioni comuni con tutto il mondo, dal momento che hanno la ineguagliabile capacità di abbattere virtualmente ogni confine geografico; allo stesso tempo però, tramite gli algoritmi che li costituiscono e i dati che maggiormente condividiamo, sono in grado di realizzare una nostra profilatura digitale, incrementando quel fenomeno definito di “personalizzazione” dell’informazione (Bergstrom et Bak-Coleman, 2019).

Social network e personalizzazione dell’informazione

Facebook, Twitter, Instagram, Google, per citarne alcuni, raccogliendo dati sulle nostre abitudini, le nostre preferenze nella scelta dei siti internet, dei blog e dei profili, sui nostri acquisti più recenti o sulle nostre “wish list” di vita, sono in grado di prevedere la prossima cosa che cercheremo, il prossimo capo che indosseremo, se si utilizzano siti di e-commerce, le persone che ci piacerebbe frequentare con i siti d’incontro, le informazioni che siamo soliti condividere e la prossima notizia su cui vorremmo essere informati, filtrando e selezionando al posto nostro tutto ciò che con più alta probabilità è per noi di maggior interesse e ciò che al contempo vogliamo trascurare.

Questa nostra costante profilatura e personalizzazione “su misura” delle informazioni che riceviamo da parte dei social inevitabilmente sta influenzando le nostre decisioni e i nostri comportamenti in un modo tale che, a parere di Eric Schmidt, CEO di Google, a breve si arriverà a delegare a internet anche scelte di vita importanti, arrivando a chiedergli cosa potrebbe essere meglio per noi.

A parere di Pariser (2011), questi fenomeni hanno ridefinito per ognuno l’intero bacino di informazioni alle quali accedere creando intorno a noi delle “bolle” invisibili che sottilmente distorcono il modo in cui ci approcciamo alle notizie e al loro contenuto.

Queste “bolle” rinforzano alcune idee, spesso di natura politica, in alcune circostanze le estremizzano e le polarizzano dando adito a commenti populistici, riducendo inoltre la possibilità per le persone di confrontarsi con altri pareri discordanti e di aggiornare e ampliare le loro connessioni sociali in quanto le porta a gravitare intorno ad altri che possiedono opinioni ideologiche e pensieri affini (Pariser, 2011).

Alexander Stewart del dipartimento di biochimica e biologia dell’Università di Houston, insieme ai colleghi della Sloan School of Management del MIT e dell’Enviromental Change Institute dell’Università di Oxford, ha descritto un modello computazionale per descrivere come la struttura delle connessioni sociali e il flusso di informazioni all’interno di un gruppo possano essere influenzate dai social network modificando di conseguenza il comportamento e i processi decisionali collettivi degli individui che costituiscono il gruppo stesso (Stewart, Mosleh, Diakonova et al., 2019).

Processi decisionali: un esperimento sull’esercizio del voto

La massima espressione del processo di decisione collettiva risiede nell’esercizio del voto, pertanto gli autori hanno sviluppato una situazione sperimentale, basata su un gioco, per la quale due gruppi, appartenenti a differenti schieramenti (viola vs giallo), si sono trovati a dover prendere una decisione e votare per risolvere un contenzioso ed evitare così un blocco politico.

Le regole del gioco sperimentale prevedevano che ogni singolo individuo, assegnato ad un “partito”, fosse incentivato da una parte a prendere una decisione e a votare in linea con la propria preferenza e dall’altra a coordinare il proprio voto con l’intero suo gruppo prendendo in considerazione le intenzioni di voto degli altri; il tutto affinché vi fosse il più possibile un consenso e una maggioranza e non si sfociasse nell’inattività.

Alla fine del gioco, ogni giocatore avrebbe infatti ricevuto il massimo guadagno qualora il proprio partito avesse ricevuto una maggioranza significativa – i voti per quel partito avrebbero dovuto superare una soglia stabilita per ottenere la maggioranza – un guadagno minore qualora l’altro partito avesse ricevuto la maggioranza e nessun tipo di ricompensa nel caso in cui entrambi i partiti avessero fallito nell’ottenere la maggioranza.

Messaggio pubblicitario Nel modello sviluppato da Stewart e colleghi, ogni giocatore, nel decidere come votare, sarebbe dovuto arrivare ad un compromesso tra la propria preferenza e la linea decisionale adottata dal “partito” integrando le proprie intenzioni di voto, continuamente aggiornate lungo tutto il tempo di gioco, la preferenza di partito e il desiderio auspicabile di non raggiungere l’inattività con le notizie sociali provenienti dagli altri giocatori.

Secondo il modello di Stewart, ogni giocatore, per il suo processo decisionale, poteva essere influenzato in modo predominante dai membri del proprio partito, dai membri dell’opposto partito oppure oscillare tra le due posizioni politiche; fintanto che l’influenza tra i membri di uno stesso partito fosse risultata uniforme, nessuno schieramento avrebbe potuto orientare la scelta di voto dell’altro.

Al contrario, una manipolazione della struttura di diffusione del flusso di informazioni all’interno di un partito avrebbe alterato la distribuzione dell’influenza, rendendola asimmetrica in una maniera tale per cui la maggioranza dei giocatori sarebbe stata primariamente influenzata dall’opinione dei membri del proprio partito senza che vi fosse una modifica nell’influenza tra membri e un cambiamento nel numero di connessioni tra i soggetti all’interno del gruppo.

Nello studio preso in considerazione (Stewart, Mosleh, Diakonova et al., 2019) la manipolazione è stata realizzata tramite l’inserimento all’interno di un “partito” di un individuo estremista che avrebbe in ogni caso votato tenendo in considerazione esclusivamente la sua opinione personale.

L’estremista ha fatto sì che le persone traessero dagli altri delle conclusioni fuorvianti circa le preferenze politiche del proprio partito e che vi fosse un profondo contagio di parte degli indecisi, determinando di conseguenza un dirottamento di voti verso il partito opposto.

In questa condizione di manipolazione, ad esempio è molto più probabile che alcuni componenti “estremisti” del partito viola abbiano strategicamente influenzato i membri del partito giallo, mentre quest’ultimi sperperano la loro influenza o su persone del loro stesso partito che già condividono la loro idea, o peggio su membri del partito viola che avevano un numero tale di connessioni con altri membri del loro partito da non lasciarsi persuadere.

In questo modo, la maggior parte dei partecipanti al gioco ha inferito erroneamente che il partito opposto al loro avesse ottenuto la maggioranza e di conseguenza, per ricevere comunque una  ricompensa ed evitare così la situazione di “stallo politico” ha deciso di votare per il partito opposto.

Dalle evidenze ottenute, appare evidente che, per la manipolazione dell’informazione, l’elemento determinante non sia stato come gli elettori fossero concentrati all’interno di un gruppo ma come le connessioni sociali fossero distribuite tra di loro (Bergstrom et Bak-Coleman, 2019).

Le implicazioni dello studio di Stewart e colleghi sono molteplici: prima fra tutte il fatto di aver svelato i meccanismi sottili e inconsapevoli sottostanti i processi di decision-making collettivo, ma soprattutto di aver portato all’attenzione della comunità il rischio di probabili manipolazioni digitali da parte dei social network che più di altri (giornali o palinsesti televisivi) sono in grado di alterare le connessioni sociali tra gli individui e i flussi di informazione tramite sistemi di feedback tra algoritmi e persone.

Gli algoritmi infatti realizzano delle previsioni e suggeriscono delle connessioni con commenti, persone o opinioni anche estremiste, le persone che li utilizzano rispondono a queste dando origine ad un circolo vizioso che andrebbe ad alterare il modo in cui queste ultime ricevono le informazioni, modificandone la prospettiva sugli eventi e le opinioni.

Attualmente i social network non sono soggetti a specifici requisiti di trasparenza o ad una chiara supervisione legislativa.

A questo punto vale la pena di riflettere se non sia il caso di prendere nota.

 

VOTA L'ARTICOLO
(voti: 1, media: 5,00 su 5)

Consigliato dalla redazione

Fake news: le notizie false viaggiano più veloci su Twitter

Fake news: perché le notizie false viaggiano più veloci di quelle vere su Twitter?

Le notizie false hanno una probabilità di essere ritwittate del 70% rispetto a quelle notizie confermate e con fondamento. Sono proprio gli account di utenti reali, anziché automatici, ad alimentare

Bibliografia

State of Mind © 2011-2019 Riproduzione riservata.
Condividi
Messaggio pubblicitario