Dieci secondi per decidere se un contenuto è pericoloso. Troppo pochi per una valutazione ponderata, e così su Facebook finiscono post violenti, razzisti, pornografici. L’allarme arriva da Londra dove un’inchiesta del Guardian ha svelato che il più importante social network del mondo non riesce a gestire i messaggi dei 2 miliardi di utenti.
«Facebook non riesce a controllare i sui contenuti - spiega il Guardian riportando la dichiarazione di una fonte anonima -. È diventato troppo grande e troppo in fretta».
Per cercare di regolare il social network la società di Mark Zuckerberg ha elaborato centinaia di manuali interni che dettano le linee guida che i moderatori devono seguire, in particolare per valutare questioni come la violenza, l’odio, il terrorismo, la pornografia, il razzismo e l’autolesionismo.
Entrato in possesso di molti di questi manuali, il Guardian è riuscito a ricostruire i problemi che Facebook si trova ad affrontare ogni giorno.
Primo tra tutti, il “carico” sui moderatori che «dicono di essere sopraffatti dal volume del lavoro, il che significa che spesso hanno solo 10 secondi per prendere una decisione».
La valutazione pare essere particolarmente complessa per i post che hanno contenuti di carattere sessuale. Uno dei fenomeni più diffusi in rete è, infatti, quello del “revenge porn”, ossia la pubblicazione di immagini altrui utilizzate a scopo di vendetta.
Utilizzando migliaia di immagini, Facebook ha definito le linee guida generali. Tra queste, ecco alcuni esempi:
• un post in cui sia scritto “Qualcuno spari a Trump” dovrebbe essere cancellato perché si tratta di un capo di Stato che come tale è una categoria “protetta”. Allo stesso tempo, però, sono ammessi messaggi violenti del tipo “Per spezzare il collo a una cagna, assicurati di applicare tutta la tua pressione al centro della gola», perché non sono considerati minacce credibili.
• I video di morti violente non devono sempre essere eliminati perché possono contribuire a creare la consapevolezza di problemi come la malattia mentale.
• Alcune foto di abusi fisici non sessuali e di bullismo nei confronti di bambini non devono essere eliminati a meno che non ci sia un elemento sadico o celebrativo.
• Le foto di abusi su animali possono essere condivise, a meno che non siano troppo sconvolgenti.
• È consentito pubblicare immagini di nudo artistico ma non immagini che mostrino l’attività sessuale.
• I video di aborti sono consentiti, a patto che non ci siano immagini di nudo.
• Visto che «Facebook non vuole censure o punire le persone in difficoltà» , non vengono rimossi i contenuti di utenti che tentano di danneggiare se stessi.
• Gli utenti con più di 100.000 “amici” sono ritenuti «figura pubblica» e come tale Facebook nega loro le piene protezioni offerte agli individui.
“Abbiamo una comunità globale davvero composita e le persone hanno idee molto diverse su ciò che è bene condividere. Ci saranno sempre alcune aree grigie. Ad esempio, il confine tra satira e umorismo e il contenuto inappropriato è talvolta grigio”
Monika Bickert, responsabile della politica globale di Facebook
Dai file esaminati dal Guardian si desume che Facebook accetti che «la gente usa un linguaggio violento per esprimere la propria frustrazione online» e che «deve poterlo fare» sul sito. La convinzione di Zuckerberg e dei suoi è che «non tutti i contenuti non condivisibili o sgradevoli violano i nostri standard di comunità».
Monika Bickert, responsabile della politica globale di Facebook, ha dichiarato infatti che «abbiamo una comunità globale davvero composita e le persone hanno idee molto diverse su ciò che è bene condividere. Ci saranno sempre alcune aree grigie. Ad esempio, il confine tra satira e umorismo e il contenuto inappropriato è talvolta molto grigio».
© Riproduzione riservata