I sistemi di riconoscimento facciale basati su intelligenza artificiale possono fare paura se usati in modo poco trasparente e troppo invasivo. Il garante della privacy britannico, Information Commissioner's Office (Ico), ha emesso un’opinione sull’uso della videosorveglianza con associati software di biometria, criticandone l’uso inappropriato all’interno di luoghi pubblici. In particolare vengono criticati i sistemi di live facial recognition (Lfr), che catturano immagini e video per analizzarli in tempo reale, e il cui uso in Unione Europea viene ammesso solo in casi particolari (per esempio, indagini di polizia su persone scomparse). Per qualcuno non è abbastanza: la petizione “Reclaim your face”, sostenuta da decine di fondazioni e organismi watchdog, chiede ulteriori misure di tutela della privacy dei cittadini.

 

A differenza dei classici sistemi di Cctv, le televisioni a circuito chiuso, i sistemi di Lfr impiegano algoritmi di intelligenza artificiale capaci di schedare o identificare le persone e di desumere dall’analisi facciale dati di vario tipo, anche sensibili: sesso, età, appartenenza etnica, segnali di disabilità o di malattia. “Sono profondamente preoccupata”, ha scritto la Information Commissioner, Elizabeth Denham,in merito alla possibilità che la tecnologia di riconoscimento facciale in diretta sia usata in modo inappropriati, in modo eccessivo o anche in modo sconsiderato. Quando dei dati personali sensibili vengono raccolti su scala di massa senza che le persone ne abbiano coscienza, scelta o controllo, l’impatto può essere significativo”. 

 

Coerentemente con queste preoccupazioni, l’Ico ha già avviato e in certi casi completato indagini su applicazioni pianificate di riconoscimento facciale “live”, riscontrando criticità in tutti i casi. Denham ha parlato, in particolare, di preoccupazioni che riguardano la sicurezza pubblica e la creazioni di profili biometrici per attività di marketing personalizzato. Quest’ultimo utilizzo è naturalmente carico di implicazioni  etiche e potenzialmente discriminante: pensiamo a comunicazioni pubblicitarie indirizzate verso specifici gruppi etnici, o verso persone disabili. 

 

 

 

Nelle indagini già completate dall’Ico, nessuna delle aziende coinvolte ha saputo spiegare in modo completo quali procedimenti applicasse. Tra i sistemi già in funzione, inoltre, nessuno si è rivelato completamente conforme ai requisiti delle leggi sulla privacy in vigore nel Regno Unito. Se non altro, ha spiegato Dehnam, tutte le aziende oggetto d’indagine hanno scelto di interrompere le applicazioni in corso o di non procedere con quelle pianificate. Ma non per questo possiamo stare tranquilli. In futuro, ha scritto la Information Commissioner, “le videocamere Cctv potrebbero sovrapporsi ai sistemi di riconoscimento facciale live e addirittura combinarsi con i dati dei social media o con altri sistemi Big Data”.

 

Non rientrando più, dopo la Brexit, nelle regole dell’Unione Europea in materia di intelligenza artificiale, il Regno Unito dovrà trovare un modo per vietare o limitare gli utilizzi del riconoscimento facciale “live”. Al momento, le aziende o altre entità che vogliamo mettere in funzione sistemi di Lfr nel Paese devono essere conformi allo Uk Data Protection Act del 2018 e alla UK General Data Protection Regulation, cioè alla versione del Gdpr adottata in Regno Unito prima della Brexit. Nella quale mancano, però, i principi dell’Articolo 5 in merito alla legittimità, equità, trasparenza, limitazione di scopo, minimizzazione dei dati, limitazione dello storage, sicurezza e responsabilità sui dati.