Facebook, il più grande e celebre social network del pianeta, ha dichiarato di essersi impegnato nel rendere il proprio spazio "un ambiente ostile ai terroristi". Per farlo, si sta dotando di un sistema con alla base un'intelligenza artificiale che sia in grado di riconoscere i post contenenti materiali sensibili ed impedire la loro pubblicazione prima che diventino pubblici. Un sistema avanzato ma che in Italia già esiste grazie alla start up friulana Kaitiaki, che utilizza l'AI per combattere e prevenire gli abusi online sui minori. Insomma, in un contesto dove si fa sempre più acceso il dibattito sul tema del rapporto tra automazione e lavoro umano, Facebook sceglie la via dell'Intelligenza Artificiale per arginare il terrorismo sulla piattaforma social.

La presa di posizione dei politici contro Facebook

L'affermazione di Facebook è arrivata dopo che politici tedeschi, francesi ed inglesi stavano discutendo riguardo una serie di misure da adottare nei confronti dell'azienda accusata di non rimuovere i post. I recenti attacchi di stampo terroristico di Londra e di Manchester hanno infatti messo sotto pressione le compagnie tecnologiche e, in particolare, i social network. Il Premier britannico Theresa May, che ha accusato le piattaforme di fornire "spazi sicuri" al terrorismo online, ha di recente lanciato una campagna anti-terrorismo insieme al Presidente francese Emmanuel Macron, che aveva come target principale proprio i social media.

Le contromosse di Facebook

Monika Bickert, capo della global public policy di Facebook, ed ex pubblico ministero, ha dichiarato che il gruppo è impegnato da tempo ad adottare misure per rimuovere celermente la propaganda di matrice terroristica. Come ha riportato anche il Financial Times, Facebook avrebbe sviluppato un'intelligenza artificiale che sarebbe in grado di riconoscere immagini e video contenenti materiale esplicito - come ad esempio le decapitazioni - ed impedire che questo venga pubblicato.

Bickert ha inoltre dichiarato che Facebook ha apportato "miglioramenti significativi" nel corso dello scorso anno, avendo creato una rete con il mondo accademico, communities e altri social media per migliorare il monitoraggio e la scoperta di post di questo tipo.

Rinforzato il team di controllo

Facebook ha anche rinforzato il suo team antiterrorismo con 150 nuove persone, tra cui accademici, ex agenti di repressione e ingegneri.

Inoltre, lo scorso mese l'azienda fondata da Mark Zuckerberhg ha annunciato di voler mettere più persone sul tema dei contenuti sensibili - sia di natura terroristica, violenta o sessualmente esplicita - aggiungendo 3 mila moderatori al suo team già esistente formato da 4500 unità. L'annuncio è arrivato subito dopo che Facebook è stato accusato di essere stato lento a togliere il video di un omicidio in Ohio e quello di un uomo che uccide il suo bambino in Thailandia.