19/06/2017 di Redazione

YouTube si fa in quattro per combattere il terrorismo online

Google ha annunciato nuove misure di contrasto alla propaganda e ai video inneggianti all'odio religioso. La piattaforma di video publishing intensificherà l'impiego dell'intelligenza artificiale, ma anche le collaborazioni con esperti e Ong.

immagine.jpg

Proprio mentre da Londra l'ennesimo episodio di cronaca – il furgone lanciato contro i fedeli radunati davanti alla moschea di Finsbury Park – ci ricorda che il terrorismo è un male più connesso alla follia e all'odio che non alla religione, da Mountain View Google ci fa sapere che sta “lavorando con il governo, le forze dell'ordine e la società civile per affrontare il problema dell'estremismo violento online”, e che “non dovrebbe esistere spazio per i contenuti terroristici all'interno dei nostri servizi”, YouTube incluso. In un lungo articolo pubblicato sul Financial Times e poi ripreso sul blog della società si elencano quattro azioni aggiuntive, che andranno ad aggiungersi all'opera di monitoraggio, prevenzione e censura dei contenuti d'odio già portata avanti sul Web, tanto nel motore di ricerca quanto nella piattaforma di pubblicazione video.

Le quattro iniziative sono un mix di tecnologia, regole e opera umana. Innanzitutto, verrà intensificato l'utilizzo degli algoritmi di intelligenza artificiale applicati all'analisi dei video: strumenti capaci di comprendere non solo quale sia il tema, ma anche il tono e l'intenzione di un contenuto. Queste analisi automatizzate possono distinguere, per esempio, tra un servizio giornalistico su un attentato e un filmato di propaganda e hanno permesso di rilevare il 50% dei video pro-terrorismo rimossi negli ultimi sei mesi.

Come seconda misura, YouTube aggiungerà una cinquantina di nuove organizzazioni non governative alle 63 che già collaborano con il programma Trusted Flagger (mirato a raccogliere segnalazioni di contenuti violenti e pericolosi) e amplierà la rete delle partnership con società specializzate in lotta alla propaganda terroristica. In terzo luogo, la piattaforma renderà meno visibili i contenuti che, pur non in formale violazione delle policy, rappresentino violenza o ideologie pericolose, con allusioni alla religione e alla supremazia etnica. Riducendo la visibilità si limitano anche le chanche di monetizzazione di questi video: un “inciampo” che in passato era valso a YouTube una bella figuraccia.

È stata annunciata, infine, l'intenzione di ampliare ed estendere all'Europa l'uso del metodo di reindirizzamento sviluppato con Jigsaw. Il meccanismo è semplice: qualora un utente esegua ricerche o clicchi su filmati pro-terrorismo, la navigazione viene dirottata verso contenuti di natura opposta, che spiegano come difendersi dai tentativi di reclutamento dell'Isis.

 

Il tema della lotta alla propaganda terroristica via Web è quanto mai attuale, rappresentando una delle anime della proposta di legge anti-hate speech che a breve sarà votata dal Parlamento Europeo. L'anno scorso era nato il primo codice di condotta europeo in materia: alla sua redazione aveva collaborato anche YouTube, insieme a Facebook, Twitter e Microsoft. E non solo in territorio Ue, ma in tutto il mondo, per Google da anni lavorano migliaia di collaboratori incaricati di identificare e rimuovere dal Web i contenuti che violano le policy. Un'opera squisitamente umana, che si affianca agli strumenti di intelligenza artificiale e di rilevamento automatico delle violazioni.

 

ARTICOLI CORRELATI