22/05/2017 di Redazione

Ecco i “Facebook Files”: come il social modera i contenuti

Il Guardian ha pubblicato centinaia di documenti, slide e linee guida con cui il colosso californiano determina cosa mantenere online e cosa rimuovere. Ma le policy su violenza, sesso, abusi e così via sono un ginepraio e, spesso, confuse. I post da rived

immagine.jpg

Facebook è finita nuovamente nell’occhio del ciclone. Il Guardian ha recuperato e pubblicato centinaia di documenti interni al social network, che costituiscono una serie di linee guida per i moderatori con cui l’azienda illustra le modalità d’azione e i comportamenti da seguire per la rimozione dalla piattaforma di contenuti sensibili. Si parla di violenza, pedofilia, crudeltà verso gli animali, terrorismo, pornografia, hate speech, bufale e così via. Il Guardian ha raccolto tutta la documentazione in un archivio, chiamato Facebook Files, che accende nuovamente i riflettori sulle policy del social network. Perché le regole sono troppe, poche chiare e, inoltre, i contenuti pubblicati ogni giorno da circa 2 miliardi di utenti sono decisamente fuori dalla portata di qualsiasi essere umano. Sono le stesse fonti contattate dal Guardian a parlare di “dubbi sull’inconsistenza” e sulla “natura bizzarra” di alcune policy.

“Quelle sui contenuti a sfondo sessuale, per esempio, vengono descritte come fra le più complesse e confuse”, aggiunge il quotidiano britannico. È il caso del cosiddetto “revenge porn”, in cui sempre più persone incappano e che porta le persone tradite a pubblicare sul social video e fotografie intimi del compagno/a. Per non parlare del tema del suicidio. Secondo le regole del gruppo di Menlo Park, un filmato che mostra un atto di autolesionismo non va rimosso, mentre frasi violente o diffamatorie dirette al presidente Trump sì, perché i politici sono considerati una categoria protetta.

È questa selva di dettami e principi portata a galla dal Guardian che fa interrogare ulteriormente in queste ore l’opinione pubblica: Facebook è ancora un semplice social network o è ormai diventato a tutti gli effetti un editore, con una linea ben precisa? E se fosse, a quali obblighi deve rispondere? Risposte precise oggi non ce ne sono, ma l’azienda è sempre più pressata da governi ed enti per agire velocemente (come succede con Twitter), in modo da cancellare contenuti sensibili in poco tempo.

Un’utopia, considerando che solo per gli account finti creati dagli utenti (non collegabili quindi a una persona fisica) Facebook esamina ogni settimana oltre 6,5 milioni di segnalazioni provenienti dagli iscritti alla piattaforma. Gli addetti ai lavori sono oggi 4.500 (ma la società punta ad assumerne altri 3.500), a cui vanno però aggiunti fornitori terzi di cui si conosce ben poco, e spesso hanno a disposizione soltanto dieci secondi per prendere una decisione.

I moderatori seguono un corso intensivo di formazione di due settimane, durante il quale ricevono i manuali preparati direttamente dai top manager del social network. I dipendenti prendono in carico soltanto le segnalazioni giunte dagli utenti, mentre un sistema automatico di Facebook cerca di bloccare post inappropriati ancora prima che vengano diffusi.

 

Mark Zuckerberg è sotto pressione per i nuovi documenti rivelati dal Guardian

 

Approfondendo i documenti, si scopre ad esempio che frasi violente dirette ad altri membri della community sono tollerate, perché non vengono valutate minacce credibili. Sono consentite inoltre scene di aborto, purché non mostrino nudi, così come video e immagini che mostrano violenze sugli animali: ma quelle troppo forti andrebbero comunque segnalate agli utenti come potenzialmente disturbanti.

Regole e postille sono migliaia, ma ogni post su Facebook fa storia a sé e presenta sfumature difficilmente inquadrabili in modo statico. È il caso della satira, che può avere espressioni violente o volgari, ma non per questo incitare effettivamente a commettere atti contro la legge. Nel caso di contenuti sui minori si entra in un altro ginepraio: secondo le policy, il colosso californiano non interviene in automatico sulle foto che mostrano abusi verso i bambini.

 

La risposta di Facebook e i dubbi sul futuro

L’azienda si limita soltanto ad allertare gli utenti sugli effetti disturbanti dei post e procede alla rimozione solo in presenza di “commenti sadici o che esaltano la violenza”. Questo perché, secondo il gigante di Menlo Park, mantenere il materiale online potrebbe favorire il lavoro delle forze dell’ordine.

Immediata la risposta di Facebook, che ha sottolineato l’imminente assunzione di altri moderatori e lo sviluppo di nuovi strumenti per “mantenere al sicuro la community”. Secondo la responsabile della gestione delle policy, Monika Bickert, il social network “è un nuovo tipo di società. Non è un’azienda tecnologica tradizionale e neanche una classica media company. Sviluppiamo la tecnologia e siamo responsabili del suo utilizzo, ma non scriviamo le notizie che vengono pubblicate”.

 

 

La creatura di Mark Zuckerberg è quindi in mezzo al guado ed è facile pensare che sarà sempre più soggetta a critiche, sia da chi grida alla censura sia da chi vorrebbe il Web ripulito da qualsiasi nefandezza. La situazione, malgrado gli sforzi della compagnia, sembra difficilmente risolvibile. “Un conto è essere una piccola comunità online che condivide gli stessi valori e principi, ma quando disponi di una buona fetta della popolazione del mondo e le chiedi di ‘condividere se stessa’, allora è un pasticcio”, ha commentato Sarah T. Roberts, assistant professor del Department of Information Studies, Graduate School of Education & Information Studies dell’Università della California Los Angeles.

 

ARTICOLI CORRELATI