Ibm non offrirà più software di analisi o di riconoscimento facciale per scopi generici. Lo ha dichiarato oggi il Ceo di Ibm Arvind Krishna, in una lettera indirizzata ad alcuni membri del Congresso americano. Inoltre, secondo quanto riportato da The Verge, la società non svilupperà o effettuerà più ricerche su questa tecnologia.

"Ibm si oppone fermamente all'uso di qualsiasi tecnologia di riconoscimento facciale, inclusa quella offerta da altri player, per la sorveglianza di massa, la profilazione razziale, le violazioni dei diritti umani e delle libertà di base, o per qualsiasi scopo che non sia coerente con i nostri valori e principi di fiducia e trasparenza", ha dichiarato Arvind Krishna nella lettera. "Riteniamo che sia giunto il momento di avviare un dialogo nazionale, sul se e sul come, la tecnologia di riconoscimento facciale dovrebbe essere impiegata dalle forze dell'ordine nazionali".

Nella sua lettera, il Ceo di Ibm ha anche perorato una riforma della polizia, sostenendo che un maggior numero di casi di cattiva condotta da parte delle forze dell’ordine dovrebbe essere sottoposto al tribunale federale - facendo capire che molte denunce non hanno poi seguito - e che il Congresso, tra le altre misure, dovrebbe modificare i termini dell’immunità di cui i poliziotti godono.

Il software di riconoscimento facciale è notevolmente migliorato nell'ultimo decennio, grazie ai progressi dell'intelligenza artificiale. Allo stesso tempo, la tecnologia, poiché è spesso fornita da società private senza una specifica regolamentazione o con un “superficiale” controllo federale, si è dimostrata inaffidabile per l’applicazione della legge perché “colpevole” di pregiudizi in termini di età, razza ed etnia.

Uno studio del National Institute of Standards and Technology (Nist) del dicembre 2019 ha rilevato, per esempio, "prove empiriche dell'esistenza di un grado di accuratezza diverso a seconda delle differenze demografiche nella maggior parte degli attuali algoritmi di riconoscimento facciale che sono stati valutati". La tecnologia è stata anche presa di mira per il suo ruolo nelle violazioni della privacy.

Lo studio del Nist non ha valutato la tecnologia di Amazon, che è una delle poche grandi aziende tecnologiche a vendere software di riconoscimento facciale alle forze dell'ordine. Eppure Rekognition, così si chiama il programma, è stato anche criticato sul fronte della sua precisione. Nel 2018, l'American Civil Liberties Union ha scoperto che Rekognition ha erroneamente abbinato 28 membri del Congresso a volti scelti tra 25.000 foto pubbliche.