18/12/2019 di Redazione

Per scovare le fake news, Facebook ha bisogno anche di noi

Partirà prossimamente negli Usa un test pilota con cui gruppi di “revisori volontari” potranno valutare le segnalazioni di possibili bufale individuate dagli algoritmi di intelligenza artificiale. L’ultima parola spetterà ai professionisti del fact-checki

immagine.jpg

Contro le fake news che si diffondono sui social network, Facebook primo di tutti (specie alla luce dello scandalo Russiagate), le agenzie di fact-checking da sole non bastano. La mole di post, immagini, meme, link da verificare è troppo grande, e per questo la società di Mark Zuckerberg da tempo fa anche ricorso all’intelligenza artificiale per ottenere una prima scrematura fra contenuti leciti e bufale. Ma ancora non basta: Facebook ha bisogno anche della gente comune, di revisori volontari, cioè utenti iscritti alla piattaforma e disposti a partecipare a un programma di verifica delle informazioni basato sul crowdsourcing. L’azienda di Menlo Park dunque avvierà negli Stati Uniti un test pilota che permetterà ai fact-checker professionisti che già collaborano (quelli di Associated Press e factcheck.org, per esempio) di appoggiarsi all’opinione di gruppi di utenti, incaricati di confermare o smentire le segnalazioni sulle possibili bufale.

 

“Il nostro obiettivo”, scrive il product manager Henry Silverman, “è di aiutare i fact-checker ad affrontare i contenuti fasulli più rapidamente”. Il progetto pilota come spesso accade, partirà negli Usa “nei prossimi mesi” per poi eventualmente estendersi ad altre geografie in un secondo momento. I revisori amatoriali sono già stati reclutati, scelti sulla base di un’analisi condotta da YouGov su utenti del social network: i selezionati sono “un gruppo rappresentativo della comunità statunitense di Facebook e riflettono diversi punti di vista, incluse ideologie politiche”. 

 

Questa aggiunta alla strategia di lotta alle bufale si inserirà in un meccanismo già rodato. Il punto di partenza, che abbiamo chiamato “scrematura”, è sempre rappresentato dagli algoritmi di apprendimento automatico, i quali passano al vaglio i contenuti pubblicati sulla piattaforma e identificano potenziali fake news sulla base di vari elementi (un’abbondanza di commenti scettici, per esempio, o la condivisione di quei contenuti su pagine già segnalate in passato come veicolo di disinformazione). 

 

In caso di sospetti fondati, il contenuto verrà inviato a un gruppo di revisori volontari, che dovranno reperire e confrontare fonti esterne per capire se la segnalazione sia fondata oppure no. Faranno, insomma, quello che l’utente comune dovrebbe fare, ma spesso non fa, quando si trova davanti una notizia inverosimile o dominata da toni eclatanti. Se bufala verrà ritenuta tale, scatterà il terzo passaggio: i professionisti del fact-checking riceveranno quella segnalazione e potranno applicare le loro competenze specifiche per dare un parere definitivo e più completo. Insomma, i volontari saranno una sorta di anello intemedio della catena del fact-checking.

 

 

Restiamo in attesa dei risultati di questo nuovo esperimento. Per ora c’è da riconoscere quanto Facebook si sia sforzata negli ultimi anni di contrastare la pandemia delle bufale, dopo aver decisamente perso il controllo della situazione durante la campagna elettorale delle elezioni presidenziali del 2016. Ora, per l’appuntamento alle urne del 2020, non vuole ripetere gli stessi errori e, soprattutto, le stesse figuracce di fronte all’opinione pubblica e alle istituzioni che la accusano di aver finora fallito nell’impresa. In contemporanea alla recente bocciatura contenuta nella relazione della Commissione Europea sul tema fake news, il social network ha varato l’iniziativa Facebook Project, con cui le agenzie governative, i candidati e gli amministratori delle Pagine politiche potranno meglio proteggere i rispettivi account. 

 

ARTICOLI CORRELATI