12/02/2020 di Redazione

Intelligenza artificiale, il governo britannico ha troppi segreti

Una relazione della Committee on Standards in Public Life critica l’assenza di trasparenza nel modo in cui le istituzioni governative e le forze di polizia britanniche adottano applicazioni di AI. Non c’è modo di sapere quali dati siano coinvolti e a qual

immagine.jpg

L’intelligenza artificiale ha più di un problema da risolvere in merito ai suoi utilizzi nella vita pubblica, nel supporto alle attività governative e di sicurezza nazionale. Lo si è visto, recentemente, nel caso di SyRI, il programma di digital welfare usato dal governo olandese, che un tribunale dell’Aia ha giudicato discriminatorio e non rispettoso dei diritti umani. E lo si vede oggi nel Regno Unito, attraverso una relazione della Commissione sugli Standard della Vita Pubblica (Committee on Standards in Public Life) a cui hanno contribuito accademici, pubblici ufficiali e rappresentanti di gruppi di tutela dei cittadini. Due, in particolare, le aree critiche: la trasparenza nell’uso dei dati e il bias, cioè il noto problema del pregiudizio insito (anche involontariamente) negli algoritmi. 

 

L’analisi fa riferimento ai Nolan Principles a cui la Commissione s’ispira, valutandoli ancora validi e non in discussione. Stilati negli anni Novanta, i sette Principi di Nolan definiscono i doveri morali di chi lavora nel settore pubblico: l’interesse collettivo (che deve sempre prevalere su quello personale), l’integrità (assenza di secondi fini e conflitti d’interesse), l’obiettività (imparzialità delle decisioni), la responsabilità, l’apertura (trasparenza sui loro scopi e azioni), onestà e leadership (intesa come capacità di incarnare e promuovere in prima persona questi principi). 

 

Il problema di fondo nel Regno Unito è che gli enti governativi non spiegano quali dati utilizzino, esattamente, nelle loro applicazioni di intelligenza artificiale, né a quali scopi. Non esistono database o documenti di auditing pubblicamente accessibili. Dunque anche la relazione stessa ha dovuto basarsi su fonti indirette, per esempio su studiosi del mondo accademico o su giornalisti che hanno condotto inchieste sulla questione.

 

II presidente della Commissione sugli Standard della Vita Pubblica, Lord Evans (che in passato è stato direttore dell’MI5, l'ente britannico per la sicurezza e il controspionaggio) intervistato da Zdnet ha spiegato: “Quando ho avviato questo progetto ho chiesto ai miei ricercatori di scoprire dove gli algoritmi fossero impiegati nel settore pubblico, e non sono stati in grado di farlo. I giornalisti provano a scoprirlo e raramente ci riescono. Il governo non pubblica nemmeno alcun audit sugli scopi dell’utilizzo dell’AI”. Inoltre non sono trasparenti i processi di procurement con cui gli enti governativi selezionano i fornitori di tecnologie di AI.

 

 

L’assenza di trasparenza è particolarmente accentuata per le tecnologie usate dalle forze dell’ordine e dal sistema giudiziario, per esempio quelle di videosorveglianza e riconoscimento facciate: non si sa quali dati utilizzino, quali persone controllino e come, e non si sa nemmeno esattamente chi gestisca i progetti. “C’è una grave mancanza di trasparenza e una concomitante mancanza di responsabilità nel modo in cui la polizia e altre forze dell’ordine usano queste tecnologie”, afferma Karen Yeung, professore di legge, etica e informatica dell’Università di Birmingham. 

 

Una certa opacità su dati, metodi e algoritmi può essere accettabile per applicazioni tese, per esempio, a migliorare la gestione amministrativa o la produttività di un ente pubblico. Ma se le applicazioni riguardano i cittadini, i loro dati sensibili e i loro interessi materiali, la trasparenza dovrebbe essere un obbligo. 

 

ARTICOLI CORRELATI