L’intelligenza artificiale ha più di un problema da risolvere in merito ai suoi utilizzi nella vita pubblica, nel supporto alle attività governative e di sicurezza nazionale. Lo si è visto, recentemente, nel caso di SyRI, il programma di digital welfare usato dal governo olandese, che un tribunale dell’Aia ha giudicato discriminatorio e non rispettoso dei diritti umani. E lo si vede oggi nel Regno Unito, attraverso una relazione della Commissione sugli Standard della Vita Pubblica (Committee on Standards in Public Life) a cui hanno contribuito accademici, pubblici ufficiali e rappresentanti di gruppi di tutela dei cittadini. Due, in particolare, le aree critiche: la trasparenza nell’uso dei dati e il bias, cioè il noto problema del pregiudizio insito (anche involontariamente) negli algoritmi. 

 

L’analisi fa riferimento ai Nolan Principles a cui la Commissione s’ispira, valutandoli ancora validi e non in discussione. Stilati negli anni Novanta, i sette Principi di Nolan definiscono i doveri morali di chi lavora nel settore pubblico: l’interesse collettivo (che deve sempre prevalere su quello personale), l’integrità (assenza di secondi fini e conflitti d’interesse), l’obiettività (imparzialità delle decisioni), la responsabilità, l’apertura (trasparenza sui loro scopi e azioni), onestà e leadership (intesa come capacità di incarnare e promuovere in prima persona questi principi). 

 

Il problema di fondo nel Regno Unito è che gli enti governativi non spiegano quali dati utilizzino, esattamente, nelle loro applicazioni di intelligenza artificiale, né a quali scopi. Non esistono database o documenti di auditing pubblicamente accessibili. Dunque anche la relazione stessa ha dovuto basarsi su fonti indirette, per esempio su studiosi del mondo accademico o su giornalisti che hanno condotto inchieste sulla questione.

 

II presidente della Commissione sugli Standard della Vita Pubblica, Lord Evans (che in passato è stato direttore dell’MI5, l'ente britannico per la sicurezza e il controspionaggio) intervistato da Zdnet ha spiegato: “Quando ho avviato questo progetto ho chiesto ai miei ricercatori di scoprire dove gli algoritmi fossero impiegati nel settore pubblico, e non sono stati in grado di farlo. I giornalisti provano a scoprirlo e raramente ci riescono. Il governo non pubblica nemmeno alcun audit sugli scopi dell’utilizzo dell’AI”. Inoltre non sono trasparenti i processi di procurement con cui gli enti governativi selezionano i fornitori di tecnologie di AI.

 

 

L’assenza di trasparenza è particolarmente accentuata per le tecnologie usate dalle forze dell’ordine e dal sistema giudiziario, per esempio quelle di videosorveglianza e riconoscimento facciate: non si sa quali dati utilizzino, quali persone controllino e come, e non si sa nemmeno esattamente chi gestisca i progetti. “C’è una grave mancanza di trasparenza e una concomitante mancanza di responsabilità nel modo in cui la polizia e altre forze dell’ordine usano queste tecnologie”, afferma Karen Yeung, professore di legge, etica e informatica dell’Università di Birmingham. 

 

Una certa opacità su dati, metodi e algoritmi può essere accettabile per applicazioni tese, per esempio, a migliorare la gestione amministrativa o la produttività di un ente pubblico. Ma se le applicazioni riguardano i cittadini, i loro dati sensibili e i loro interessi materiali, la trasparenza dovrebbe essere un obbligo.