Il problema dei contenuti offensivi è un grosso problema per chi, come Google, agisce più da promotore di contenuti altrui che da produttore di contenuti propri. Per tale motivo l'azienda di Mountain View sta assumendo migliaia di recensori per ridurre la quantità di contenuti problematici su Youtube. Parallelamente sta introducendo delle restrizioni più dure sulle pubblicità e facendo uso di tecnologia intelligente per automatizzare alcune operazioni di screening dei contenuti.

"A partire dal 2018, Google punta ad avere più di 10.000 recensori che lavorino ad individuare contenuti che potrebbero violare le proprie politiche interne", ha riportato il CEO di YouTube Susan Wojcicki in un post apparso sul blog ufficiale della piattaforma video.

Lo stesso post non fornisce dettagli sul numero di persone attualmente coinvolte per il monitoraggio di video offensivi su YouTube.

Wojcicki ha aggiunto che, negli ultimi sei mesi, gruppi di lavoro fidati e sicuri hanno già recensito quasi 2 milioni di video con contenuti violenti e/o estremisti. La CEO di Youtube ha aggiunto che "alcuni stanno sfruttando la nostra apertura per manipolare, molestare o anche ferire". In tutta risposta anche la piattaforma video sta intraprendendo azioni aggressive sui commenti, lanciando nuovi strumenti per la moderazione dei commenti ed, in alcuni casi, rimuovendo del tutto i commenti.

Le controversie di YouTube sui contenuti

Quest'anno YouTube è stata al centro di una lunga serie di controversie riguardanti la presenza di video violenti sulla propria piattaforma.

Lo scorso mese è stata obbligata ad adottare misure di screening sulla sua piattaforma dedicata ai bambini (YouTube Kids), dopo che alcuni report aveano mostrato che alcuni video contenevano contenuti osceni e violenti.

Tali problemi hanno spinto alcune aziende, tra cui Etihad Airways, Marriot, Deliveroo ed il partito laborista Inglese, a rimuovere le propria pubblicità dalla piattaforma dopo aver scoperto che stavano apparendo su video realizzati da predicatori di odio.

Per tale motivo YouTube, sta adottando un nuovo approccio con maggiore intervento umano criteri più stringenti per i video eleggibili a mostrare pubblicità, ed un grande numero di recensori dei video.

Non solo assunzioni di recensori ma anche algoritmi di apprendimento automatico

Come si può immaginare, Google e YouTube non si basano solo sull'intervento umano per risolvere la problematica.

Gli algoritmi di apprendimento automatico implementati nella piattaforma hanno consentito di rimuovere più di 150.000 video che raffigurano scene violente a partire da giugno. Per ottenere lo stesso risultato sarebbe stato necessario il lavoro di 180.000 persone per 40 settimane.

Dato che tali algoritmi stanno dando risultati positivi, la CEO di YouTube ha dichiarato che i gruppi di lavoro stanno cominciando ad utilizzare la tecnologia dell'apprendimento automatico su altre aree di contenuti, tra cui la sicurezza dei bambini ed i discorsi dei predicatori di odio.