19/09/2018 di Redazione

Basta pregiudizi, Ibm offre la chiave per una Ai meno partigiana

L’azienda ha messo a disposizione una libreria aperta scritta in Python per rendere più trasparenti le decisioni prese dagli algoritmi di intelligenza artificiale, correggendo eventuali distorsioni nei modelli di dati utilizzati per allenare i sistemi.

immagine.jpg

È ormai risaputo che gli algoritmi di intelligenza artificiale, essendo pur sempre il frutto della mente umana, possono non essere neutrali. Ma non solo. Un recente studio del Massachusetts Institute of Technology di Boston ha svelato come l’Ai possa anche modificare nel tempo il proprio modo di ragione, sviluppando veri e propri pregiudizi imitando altri bot e programmi smart. Che cosa possono quindi fare le aziende per adottare soluzioni di intelligenza artificiale affidabili e trasparenti. Ibm in queste ore ha proposto una vera e propria chiave per aprire la “scatola nera” degli algoritmi, quella fase del processo in cui il codice analizza i dati per elaborare dei risultati. Un output su cui le imprese devono fare affidamento per prendere decisioni di business. Ai Fairness 360 è una libreria open source in Python che promette di aiutare le organizzazioni nell’identificare e rimuovere i pregiudizi nei modelli di machine learning e nei data set utilizzati in fase di allenamento.

Lo strumento prevede una serie di metriche su cui testare la solidità dei modelli di apprendimento automatico e le contromisure necessarie per ridurre la possibilità di scelte errate. Gli algoritmi di mitigazione contenuti nel kit sono stati sviluppati dalla comunità di ricercatori che gravita attorno a Ibm. Tutte le risorse necessarie per il corretto funzionamento della soluzione sono disponibili online: dalla dimostrazione alle Api complete al tutorial.

Ai Fairness 360 è compatibile con i principali ambienti di allenamento per il deep learning, come Watson, Tensorflow, Amazon Web Services Sagemaker, AzureMl e Sparkml. La prima versione dello strumento è completamente gratuita e mette nelle mani delle aziende un “semplice” cruscotto per monitorare eventuali distorsioni degli algoritmi. Il software in cloud può essere inoltre applicato a qualsiasi ambito ed è completamente automatizzato, oltre a rappresentare ovviamente una preziosa fonte di consigli per correggere gli errori.

La decisione di sviluppare Ai Fairness 360 è stata corroborata anche dai risultati di una ricerca, condotta su cinquemila Cxo dall'Institute for Business Value di Ibm, secondo cui il 60 per cento dei dirigenti teme di incappare in problemi legati alla responsabilità delle scelte degli algoritmi. Inoltre, il 63 per cento degli intervistati ha dichiarato di non disporre di competenze interne per gestire al meglio questa tecnologia.

 

ARTICOLI CORRELATI