Continua l’operazione-pulizia di Facebook: il social network ha cancellato 2,2 miliardi di account falsi nel primo trimestre del 2019, un numero record se si pensa che nel mondo gli utenti attivi su base mensile sono 2,38 miliardi. La pulizia dei primi mesi del 2019 è quattro volte maggiore di quella di un anno fa: basti pensare che nel primo trimestre del 2018 gli account rimossi erano stati solo 583 milioni. I dati sono contenuti nel terzo “Community Standards Enforcement Report” presentato oggi, 23 maggio. «Abbiamo rimosso un numero superiore di account falsi nel primo trimestre del 2019 e negli ultimi tre mesi del 2018 rispetto ai trimestri precedenti», mettono in evidenza dal quartier generale di Menlo Park e precisando che la maggior parte degli account sono stati rimossi nei minuti immediatamente successivi alla loro creazione e, quindi, non sono inclusi nei dati sugli utenti attivi mensili e quotidiani, parametro seguito da vicino dagli investitori.
Secondo Facebook, la mole di account fake viene generata da quelli che chiamano “bad actors”, ossia sistemi di hackeraggio che creano attacchi informatici capaci di generare una enorme quantità di account in una volta sola.
Il report contiene anche dati su temi problematici, come la droga e le armi: il numero di messaggi rimossi che promuovevano la vendita di droga e armi da fuoco è pari a 1,5 milioni solo nei primi tre mesi di quest’anno. Altre metriche riguardano messaggi violenti o a sfondo sessuale: su 10mila contenuti, 11-14 contengono materiale che viola la policy di Facebook sul nudo e sull’attività sessuale degli adulti; su 10mila contenuti, 25 contengono immagini o testi violenti.
Gli algoritmi di Facebook funzionano bene per alcune questioni, come le immagini o i contenuti violenti. Nel report Facebook rileva che quasi il 99% di questi messaggi vengono rimossi prima ancora che un utente li riesca a segnalare
all’azienda. Ma gli algoritmi e l’intelligenza artificiale non sono perfetti: infatti Facebook non è ancora in grado di rilevare
contenuti violenti nei video dal vivo, ad esempio. I software non funzionato del tutto nemmeno per tematiche più “sfumate”,
come i discorsi di odio, dove il linguaggio può essere un fattore importante ma anche più “sfuggente”.
Tuttavia, secondo Facebook, si vedono segnali di miglioramento. Negli ultimi sei mesi, il 65% dei messaggi di odio rimossi da Facebook è stato individuato automaticamente grazie all’intelligenza
artificiale; un anno fa la percentuale era solo del 38 per cento.
© Riproduzione riservata