Contro le fake news, siano essere pura disinformazione o veicolo di propaganda politica, Facebook, Google e Twitter devono impegnarsi di più. Il lavoro svolto finora dai social network e dal motore di ricerca per contrastare il fenomeno non è sufficiente a detta della Commissione Europea, come risultato dall’ultima relazione presentata ieri. Qualcosa, certo, è stato fatto: nella primavera del 2018 i tre colossi del Web e con loro Microsoft e Mozilla, su proposta della Commissione, hanno sottoscritto un codice di condotta mirato a combattere la circolazione delle bufale online attraverso la promozione del giornalismo di qualità, il fact-checking e la trasparenza dell’informazione. 

 

E in effetti, come riconosciuto dalla relazione presentata ieri, le piattaforme social sono riuscite a limitare la circolazione di fake news tese a influenzare le elezioni del Parlamento europeo dello scorso maggio. Tuttavia i report di autovalutazione presentati da Facebook, Google e Twitter non hanno convinto. “La propaganda e la disinformazione su larga scala persistono e c’è ancora del lavoro da fare in tutti gli ambiti del Codice. Non possiamo accettare tutto questo come fosse una nuova normalità”, hanno scritto in una nota congiunta la commissaria Ue alla Giustizia, Vera Jourova, il commissario per la sicurezza Julian King e la commissaria Ue per per l'economia e la società digitali, Mariya Gabriel.

 

La Commissione Europea, dunque, ha chiesto alle aziende sotto esame di cooperare con un maggior numero di organismi indipendenti, nella speranza di produrre migliori risultati. Se questo funzionerà lo scopriremo tra un anno, quando saranno pubblicati due report di valutazione, uno redatto da un consulente indipendente e uno dalla Commissione stessa. Inoltre pei prossimi mesi il gruppo di lavoro guidato dalla commissaria per l’antitrust e il digitale, Margrethe Vestager, sarà impegnato a definire un provvedimento che aggiornerà e amplierà la ormai datata direttiva sull’e-commerce, risalente al 2001. Il Digital Services Act, questo il nome, “aggiornerà la nostra responsabilità e le regole di sicurezza per le piattaforme, i servizi e i prodotti digitali, e completerà il Mercato Unico Digitale”. Si prospettano dunque nuove regole per la raccolta e il trattamento dei dati da parte degli operatori Web.

 

 

Facebook non vuole un nuovo Russiagate
Tornando alle fake news, a Menlo Park già si lavora per evitare di replicare nella campagna elettorale per le elezioni presidenziali del 2020 quanto già accaduto con il Russiagate, che tanti problemi ha creato sia a Facebook sia all’entourage di Donald Trump. Qualche giorno fa l’azienda di Mark Zuckerberg ha fatto sapere di essere impegnata su tre fronti: ridurre le “interferenze straniere”, proteggendo la qualità delle informazioni e gli account social dei politici; aumentare la trasparenza, per esempio con etichette e diciture che identifichino le Pagine controllate da partiti o gruppi politici; combattere la disinformazione, sia con il fact-checking sia investendo denaro (2 milioni di dollari) per aiutare le persone a comprendere ciò che leggono sui social.

 

Tra i risultati già raggiunti, Facebook nell’ultimo triennio ha cancellato dal social network e da Instagram numerose pagine veicolo di “comportamenti non autentici”, una cinquantina solo nell’ultimo anno. Parte ora una nuova iniziativa, battezzata Facebook Project, con cui le agenzie governative, i candidati politici e lo staff che gestisce le Pagine potranno sfruttare migliori misure di protezione degli account, per esempio l’autenticazione a due fattori. 

 

 

 

Le novità in arrivo per gli utenti sono principalmente due. Via via, su Facebook le Pagine e i contenuti pubblicitari che siano “totalmente o parzialmente sotto il controllo editoriale di un governo” verranno bollati con un’etichetta che li renderà riconoscibili. La seconda novità, anch’essa destinata a graduale introduzione, sarà un’altra etichetta che marchierà come falsi i contenuti (profili, pagine, gruppi, immagini) di Facebook e di Instagram ritenuti non attendibili. Inoltre, qualora un utente cerchi di condividere questi materiali con altre persone, un avviso racchiuso in una finestra pop-up lo scoraggerà dall’intento. Per determinare la natura autentica o truffaldina dei contenuti l’azienda si affiderà a dei revisori di fact-checking.