Tecnologia

Facebook può «manipolare» il nostro voto: come?

  • Abbonati
  • Accedi
LA RICERCA

Facebook può «manipolare» il nostro voto: come?

I filtri applicati da Facebook alle informazioni che appaiono sulla sua newsfeed, la sezione delle notizie, rappresentano una «distorsione invisibile» al nostro comportamento elettorale: senza saperlo, potremmo essere spinti a votare in base agli «stimoli» prodotti dal social network. È la tesi che emerge da un approfondimento dal titolo abbastanza netto («Il grande fratello ti sta manipolando: un modello stocastico sul controllo dell’opinione dei social network») curato da tre docenti universitari italiani: Paolo Bolzern, Patrizio Colaneri (entrambi ordinari al dipartimento di Elettronica e informazione al Politecnico di Milano) e Giuseppe De Nicolao (ordinario al dipartimento di Ingegneria industriale e dell'informazione all’Università di Pavia). Nella ricerca si mostra come Facebook sia capace di alterare l’opinione dei suoi utenti con la selezione delle informazion diffuse sulla bacheca, fino a influenzarne - potenzialmente - le scelte al seggio.

Il tema scotta ancora di più dopo che il social di Mark Zuckerberg è finito nella bufera per aver esposto 126 milioni di utenti americani a contenuti «sponsorizzati» dal Cremlino. Ma in quel caso si parlava di contenuti falsi, più che di tecniche di persuasione implicite alla piattaforma. Quanto è probabile che la mano degli sviluppatori si spinga fino a spostare milioni voti con la modifica degli algoritmi che regolano il flusso di dati? «È già successo - spiega De Nicolao -Da un lato c’è il rischio della cosiddetta filter bubble, cioè di trovarsi intrappolati nella “bolla” di informazioni filtrati dai social. Dall’altro Facebook ha già dimostrato di poter proprio mandare le persone a votare».

Quei 340mila elettori creati da Facebook
La ricerca dei tre docenti italiani nasce da un precedente che risale a qualche anno fa. Nel 2012, in piena era Obama, la rivista scientica Nature dimostrò che Facebook era riuscito a portare alle urne 340mila elettori in più grazie a un «esperimento sociale» svolto nel 2010 in occasione delle mid-term elections: le elezioni che si svolgono due anni dopo le presidenziali per rinnovare il congresso, considerate come un test sulla popolarità del presidente. Che cosa era successo? Nello stesso giorno vennero inviati a destinatari diversi un «messaggio informativo» di incoraggiamento al voto, pubblicato in cima alla bacheca, o un «messaggio sociale» dove si mostravano le foto-profilo di amici che avevano dichiarato di essersi recati alle urne cliccando sull’apposito pulsante del social network («I voted», ho votato). Il risultato fu che i destinatari del messaggio in forma social erano del 2% più inclini a dire di avere votato, dello 0,4% più propensi a documentarsi online e dello 0,3% più intenzionati a recarsi davvero alle urne, come sarebbe risultato poi dal confronto con i registri elettorali. Nel bilancio finale circa 60mila persone scelsero di votare sulla spinta della notifica personale, ma a fare la differenza furono le 280mila spinte alle urne dal «contagio sociale» propagato online. In altre parole, sui 340mila votanti influenzati dalla piattaforma, la stragrande maggioranza aveva subito l’effetto-sciame innescato dal vedere il comportamento degli altri.

La “scusa” delle fake news per imporre filtri
La conseguenza è che qualsiasi social network potrebbe spostare migliaia di voti a sua discrezione, ad esempio invitando ai seggi solo un certo target di elettori. A maggior ragione se si parla di Facebook, che ha per le mani un bacino di circa 2 miliardi di utenti nel terzo trimestre 2017. «Pensiamo a che cosa succederebbe se, ad esempio, Facebook invitasse a votare solo i repubblicani o solo i democratici - dice De Nicolao - In fondo le elezioni possono essere decise da una manciata di voti, figuriamoci da migliaia». Un altro rischio evidenziato è quello del filtro “qualitativo” esercitato sulle informazioni propagate, ossia della censura arbitraria sui contenuti diffusi online. Facebook dichiara, come ha fatto anche Google, di dover intervenire per bloccare la proliferazione delle ormai celebre fake news, le notizie false. «Il punto è che quando si cambiano i meccanismi, si impatta necessariamente sulla libertà di informazione - fa notare De Nicolao - Senza contare che in alcuni Paesi Facebook ha consentito l’accesso alla sezione notizie solo ai post di amici o inserzionisti paganti: così facendo, un partito con pochi finanziamenti non potrebbe più affidarsi alla propagazione basata sui like e le condivisioni».

© Riproduzione riservata