Facebook rimuove 1,5 milioni di video della strage di Christchurch
Circa il 20% dei filmati che riprendevano immagini del massacro nelle due moschee in Nuova Zelanda è stato bloccato non in fase di caricamento, ma successivamente.
Pubblicato il 18 marzo 2019 da Redazione

Dopo le stragi nelle due moschee di Christchurch, in Nuova Zelanda, Facebook ha intercettato e rimosso 1,5 milioni di video che mostravano l’attacco del suprematista bianco Brenton Tarrant, costato la vita a 50 persone, e filmati a esso collegati. Veicolando per ben 17 minuti la diretta video del ventottenne, realizzata con una action cam e trasmessa su Facebook con la funzione dei live streaming, la piattaforma poi solo potuto limitare i danni. L’account del filofascista e antimusulmano è stato chiuso un’ora dopo, ma nel frattempo le immagini erano già state condivise innumerevoli volte sia su Facebook sia su Twitter e Youtube.
Per intervenire, alla società di Zuckerberg è servita una segnalazione della polizia, insomma nessuna tecnologia di intelligenza artificiale né monitoraggi “umani” hanno saputo o potuto accorgersi di ciò che stava succedendo. Si è trattato quindi non solo della prima strage trasmessa in diretta sui social media dal suo stesso autore, ma anche di un test parzialmente fallito per le misure di controllo di Facebook, già messe a dura prova in questi anni dalla circolazione di fake news e propaganda politica.
L’azienda californiana ha quindi tentato di difendersi (per alcuni, anzi, di vantarsi) spiegando di aver bloccato nel giro di 24 ore ben 1,5 milioni di video che mostravano l’attacco o commenti di lode all’attacco. Su questo totale, 1,2 milioni di filmati sono stati intercettati e bloccati nel momento dell’upload. Il che, come fa giustamente notare TechCrunch, equivale a un 20% di mancato riconoscimento immediato dei contenuti violenti, a dispetto del lungo lavoro fatto in questi anni da Facebook per contrastare la diffusione di odio e istigazioni alla violenza.
“Per rispetto alle persone colpite da questa tragedia e le preoccupazioni delle autorità locali, stiamo rimuovendo anche tutte le versioni editate del video che non contengono contenuti grafici", ha spiegato tramite Twitter Mia Garlic, direttore delle policy di Facebook per Australia e Nuova Zelanda. "Continuiamo a lavorare giorno e notte per rimuovere questi contenuti, usando una combinazione di tecnologia e persone". Parole che però non bastano al primo ministro neozelandese, Jacinda Ardern, la quale ha fatto sapere che la società di Menlo Park dovrà meglio chiarire le proprie responsabilità nella vicenda.
- Uso improprio di dati personali, Facebook perde la class action
- Meta ci ripensa: marcia indietro sugli Nft per Facebook e Instagram
- Meta porterà l'AI generativa in Facebook, Instagram e Whatsapp
- Meta indagata in Italia, accusa di evasione fiscale sui dati
- Meta ancora in calo, il 2023 sarà “l’anno dell’efficienza”
NEWS
- Videosorveglianza con AI per le Olimpiadi di Parigi del 2024
- Altair unifica analisi dei dati e Ai nella piattaforma RapidMiner
- Trasformazione digitale, in Europa buone attese ma progetti lenti
- Nuove Gpu e alleanze nel cloud per spingere l’AI di Nvidia
- Data center Aruba, l’impegno per la sostenibilità è certificato