L'algoritmo di Twitter non è imparziale: ha favorito le opinioni di destra a sfavore di quelle di sinistra. Uno studio interno di Twitter ha dimostrato, analizzando milioni di tweet pubblicati tra inizio aprile e metà agosto 2020 in diversi Paesi, che gli account portavoce di opinioni destrorse ricevono “maggiore amplificazione algoritmica rispetto a quelli che veicolano un’ideologia opposta, ovvero vengono mostrati più facilmente nel newsfeed degli iscritti alla piattaforma. 

 

Questo è vero sia per gli account che fanno capo a personaggi e rappresentanti di partito, sia per i profili degli utenti. Inoltre i contenuti provenienti da fonti giornalistiche sono sottoposti alla medesima logica, cioè quelli di destra vengono messi in luce più degli altri. Tali dinamiche valgono in tutti i Paesi coinvolti nello studio, cioè Stati Uniti, Canada, Giappone, Francia, Spagna, Regno Unito e Germania, con l’eccezione di quest’ultima.

 

Come è potuto accadere? In realtà lo studio non fornisce una spiegazione, ma fa notare che rispondere a questa domanda è molto difficile perché l’amplificazione algorimtica è “il prodotto delle interazioni tra le persone e la piattaforma”, dunque le variabili in gioco sono molte e non tutte misurabili. “La nostra analisi di partiti di estrema sinistra ed estrema destra di vari Paesi non supporta l’ipotesi che la personalizzazione algoritmica amplifichi le ideologie estreme più delle voci politiche mainstream”, si legge nelle conclusioni dello studio di Twitter. “Tuttavia, alcune evidenze indicano la possibilità che un forte pregiudizio partigiano nelle notizie giornalistiche sia associato a una maggiore amplificazione. Osserviamo che qui per forte pregiudizio partigiano si intende una costante tendenza a riportare le notizie in modo da favorire un partito o un altro, e non implica la promozione di un’ideologia politica estrema”.

 

Quella del bias degli algoritmi, il pregiudizio insito nei software di elaborazione dati basati su machine learning, è una questione tanto dibattuta almeno quanto complessa. Una questione innanzitutto tecnica, ma che ha anche delle implicazioni etiche e delle ripercussioni nella sfera della politica e della società. Come evidenziato da The Verge, in riferimento l’emergere di un bias che condiziona la visibilità delle opinioni sui social media non è un problema specifico di Twitter. 

 

Un precedente lavoro di uno studente dell’Università di Cambridge, Steve Rathje, sembra dimostrare che i contenuti politici “divisivi” tendono più facilmente a diventare virali, perché scatenano molto engagement. I commenti negativi, come quelli positivi, influenzano i giudizi dell’algoritmo e giocano a favore della visibilità. Anche con l’intelligenza artificiale, dunque, sembra valere il vecchio detto: bene o male, purché se ne parli.