Nuova stretta di Bruxelles per i giganti del Web. L’Unione europea ha intenzione di presentare in autunno una legge per il contrasto della diffusione di materiale terroristico online. Sul piatto ci sono multe per le piattaforme che non riescono (o non vogliono) eliminare i contenuti segnalati dalle autorità, con ripercussioni in arrivo per colossi come Facebook, YouTube e Google.
A quanto scrive l’agenzia Bloomberg, è probabile che le misure in via di definizione ricalchino laraccomandazione diffusa dalla Commissione europea a marzo, dove si invitava - fra le altre cose - a far piazza pulita di materiale sospetto entro un’ora dalla notifica delle autorità. Raggiunta dal Sole 24 Ore, una portavoce della Commissione ha confermato il progetto: «Il Consiglio europeo di giugno - ha detto - ha accolto l’intenzione della Commissione di procedere con una una proposta sui contenuti online. Posso confermare che è il nostro obiettivo».
GUARDA IL VIDEO / Terrorismo, minorenne pronto a colpire nella sua scuola
Se la legge andrà in porto, la sollecitazione potrebbe tradursi in un obbligo giuridico, creando un ulteriore fronte di tensione fra la Ue e le multinazionali del Web statunitensi. Le piattaforme ribadiscono di aver già incassato buoni risultati nel contrasto al materiale prodotto da Isis e altri gruppi terroristici, ma Bruxelles resta all’erta sull’efficacia reale di misure implementate in maniera sempre più intensa dall’attentato di Parigi del 2015.
Cosa potrebbe imporre la nuova legge
La raccomandazione di marzo si fissava l’obiettivo di accentuare gli sforzi sul contrasto alla diffusione di materiale terroristico
online, distinguendolo come categoria a sé rispetto al mondo - più generico - dei «contenuti illegali», dalla violazione
di copyright al materiale pedopornografico. Azioni specifiche contro il proselitismo per via digitale, spiegava la Commissione,
«sono necessari in vista di rischi particolarmente urgenti per i cittadini e le società associate a contenuti terroristici
- si legge nella raccomandazione - La disseminazione di questi contenuti è usata per radicalizzare e reclutare persone e
procurare finanziamenti per attività terroristiche, oltre a preparare, istruire e incitare attacchi». La proposta di un atto
vincolante, come una direttiva o un regolamento, alzerebbe la pressione su piattaforme già costrette a aumentare la propria
soglia di controlli rispetto agli standard fissati in origine. Oltre all’obbligo di rimozione nell’arco di 60 minuti, la raccomandazione
impone anche «la revisione di un umano» prima degli interventi di censura. Un suggerimento che sancisce, di fatto, l’insufficienza
di soli strumenti informatici per l’attività di controllo interna.
L’autodifesa delle aziende (e i dubbi degli attivisti)
Aziende come Google, Facebook, YouTube e Twitter sostengono di aver stanato ed elminato milioni di contenuti a stampo terroristico,
spesso avvalendosi di software e algoritmi proprietari. La sola YouTube dichiara di aver estromesso otto milioni di video
illegali tra ottobre e dicembre 2017. Nel dettaglio, 6,7 milioni sarebbero stati «segnalati prima dalle macchine che dagli
umani», con una quota del 76% stroncata senza aver ancora incassato un clic. Facebook, nel suo report sulla trasparenza del
gruppo, segnala di essere intervenuta nel primo trimestre 2018 su 1,9 milioni di contenuti (in rialzo dagli 1,1 milioni del
quarto trimestre 2017, «grazie ai miglioramenti nella nostra abilità di trovare contenuti che violano le policy»).
Gli annunci delle piattaforme si scontrano, però, con i dubbi della Commissione e di alcuni addetti ai lavori. Counter extremism project (Cep), un’associazione no-profit che si dedica al contrasto della radicalizzazione, ha evidenziato le falle nei sistemi di prevenzione (e negli stessi risultati) delle piattaforme accusate di ospitare materiale terroristico. Per limitarsi a YouTube, il Cep hasegnalato in uno studio che l’Isis avrebbe caricato «non meno di 1.348 video in tre mesi», guadagnando 163mila visualizzazioni. Il 91% delle clip è stata caricata pù di una volta e quasi un quarto è rimasto in rete per almene due ore, aumentando la possibilità di essere fruito dagli utenti. Anche Facebook, fresca di crolli in borsa dopo la sua trimestrale, ha incontrato più problemi di quanto voglia far trasparire nella repressione di video propagandistici dell’Isis. Un’indagine dello stesso Cep ha mostrato una lunga serie di video caricati solo lo scorso 25 luglio, con contenuti che vanno dai messaggi di reclutamento alle testimonianze di kamikaze prima di attentati.
© Riproduzione riservata