Poco meno di 8,3 milioni di video cancellati nel quarto trimestre del 2017 perché violavano le Community Guidelines, le regole del gioco della piattaforma video di proprietà di Alphabet-Google. E, aspetto interessante, uno su cinque è stato segnalato da utenti umani. Questo afferma il primo rapporto sulla trasparenza di YouTube pubblicato oggi (martedì 24 aprile).
Non bastano insomma gli algoritmi, alla piattaforma con sede a San Bruno, per rimuovere i video che violano i termini di servizio. Le macchine hanno generato infatti ‘solo' l'80% delle segnalazioni che hanno portato alla cancellazione di un contenuto. O alla scelta di limitarne la visione a un pubblico adulto.
Per il resto, 1,1 milioni di segnalazioni sono arrivate dai membri del Trusted Flagger Program. Ovvero agenzie governative, Ong ma anche singoli individui che aderiscono al programma implementato da YouTube per la segnalazione di contenuti inappropriati. Che, prima di essere rimossi, vengono comunque valutati da un moderatore interno all'azienda. Infine ci sono 400mila flags arrivate da semplici utenti della piattaforma.
L'elemento umano gioca insomma ancora una parte importante nell'ecosistema di YouTube. Per quanto l'intelligenza artificiale viaggi molto velocemente: basti pensare che il 75% dei contenuti segnalati come inappropriati dagli algoritmi sono stati rimossi prima che anche un solo utente riuscisse a visualizzarli. Ma quali sono le ragioni per cui utenti e membri del Tfp propongono l'eliminazione di un video?
Nel 30,1% dei casi perché il contenuto ha a che fare con il sesso. C'è poi un 26,4% di situazioni in cui il video viene considerato spam. Solo al terzo posto, con poco più del 15%, perché portatore di un messaggio d'odio. Ma c'è anche un 1,4% di casi, quasi 500mila tra ottobre e dicembre dello scorso anno, di video che promuovevano il terrorismo. E che YouTube ha rimosso dai propri server.
© Riproduzione riservata