10/09/2018 di Redazione

Robot tutt'altro che “neutrali”, sviluppano pregiudizi

Uno studio di informatici del Mit e dell'Università di Cardiff ha svelato che i software di apprendimento automatico possono sviluppare idee faziose semplicemente osservando e copiando il comportamento di altri bot.

immagine.jpg

Saranno forse senza emozioni, ma non certo senza personalità. I programmi di intelligenza artificiale, alla base di robot, chatbot e ormai innumerevoli applicazioni in ogni campo, nel tempo possono modificare il proprio modo di “ragionare” e sviluppare dei veri e propri pregiudizi. Questo è emerso da uno studio di ricercatori del Massachusetts Institute of Technology di Bostono e dell'Università di Cardiff, Galles, in cui è stata simulata una particolare situazione di interazione fra programmi di intelligenza artificiale.

Era già accaduto che un software basato sull'apprendimento automatico si dimostrasse portatore di una particolare ideologia, come accaduto per esempio a un chatbot "razzista" di Microsoft. Del problema della faziosità degli algoritmi ha parlato giorni fa anche Jack Dorsey, Ceo di Twitter, ammettendo che i programmi di machine learning usati per filtrare e bloccare profili sulla piattaforma di microblogging hanno commesso degli errori. Nello studio del Mit e della Cardiff University, però, i pregiudizi non sono derivati dall'impiego di una certa base di dati, non neutra, in fase di allenamento dell'agoritmo, bensì sono stati creati dai software stessi, in autonomia. Gruppi di bot possono sviluppare idee faziose semplicemente osservando e copiando il comportamento di altri chatbot.

Nella simulazione, ciascun programma di AI poteva scegliere di fare delle donazioni agli altri, sulla base sia di proprie strategie sia della reputazione degli altri software. Con una variabile: i bot erano divisi in gruppi. Ebbene, dopo aver completato migliaia di simulazioni i programmi hanno iniziato ad apprendere dal comportamento altrui per definire nuove strategie e, così facendo, hanno maturato una sorta di pregiudizio nei confronti dei chatbot appartenenti a gruppi diversi dal proprio.

Le nostre simulazioni mostrano che il pregiudizio è una potente forza della natura”, ha scritto Roger Whitaker, professore dell'Università di Cardiff, tra gli autori dello studio. “Attraverso l'evoluzione puà trovare facilmente degli incentivi all'interno di popolazioni virtuali, a detrimento di una più ampia connessione con gli altri”. La dinamica tende poi a rafforzarsi, perché nel tentativo di difendersi da gruppi faziosi i singoli bot tendono ad aggregarsi con altri programmi, creando così altri gruppi e altri pregiudizi difficili da smantellare.

 

ARTICOLI CORRELATI