L’intelligenza artificiale non può più un territorio senza regole, dove ognuno fa ciò che vuole in base alla propria coscienza e onestà. O almeno non in Europa. Servono regole chiare, definite, e l’obbligo di maggiore trasparenza e tracciabilità sull’uso dei dati, specialmente in ambiti che toccano da vicino la privacy, la sicurezza e i diritti civili, come la salute, i poteri delle forze dell’ordine e i trasporti. Questo è il succo del documento programmatico con cui la Commissione Europea ha presentato le proprie linee guida sull’adozione dell’intelligenza artificiale, accanto a quelle riguardanti la “strategia sui dati” dell’Ue. 

 

I due temi naturalmente sono intrecciati e rientrano sotto a un’unica visione: quella di realizzare un’Europa, si legge nella nota stampa diffusa ieri, “alimentata da soluzioni digitali che mettano al primo posto le persone, che apra nuove opportunità per le aziende e acceleri lo sviluppo di una tecnologia degna di fiducia, per alimentare una società aperta e democratica e un’economia vivace e sostenibile”. In questa visione il digitale non è solo un propulsore dell’economia ma anche un fattore cruciale per “combattere il cambiamento climatico e raggiungere una transizione green”. La presidente della Commissione, Ursula von der Leyen, ha ribadito il concetto: “Voglio che l’Europa del digitale rifletta quanto di meglio può essere l’Europa: aperta, giusta, diversificata, democratica e sicura di sé”.

 

Nel white paper si illustra lo scopo di incentivare lo sviluppo dell’AI anche nelle aziende di medie e piccole dimensioni, che senza sostegno non potrebbero avvicinarsi a questo mondo. Sarà quindi necessario “movimentare risorse lungo tutta la catena del valore”, lavorare con gli Stati membri dell’Ue e con i centri di ricerca, attivare partnership tra settore pubblico e privato.

 

Non bisognerà sottovalutare la complessità e i “rischi significativi” che l’AI può creare in determinati ambiti. Per questo vanno create regole chiare sulla tutela dei dati personali e della privacy e più in generale sui sistemi “ad alto rischio”, come quelli riguardanti la salute, la regolamentazione e il controllo sociale (applicazioni usate dalle forze dell’ordine) e i trasporti. In tutti questi casi, i sistemi di AI dovranno essere trasparenti e tracciabili, nonché garantire una “supervisione umana”. 

 

Il documento tocca anche, sebbene in modo generico, il problema del bias: “Le autorità dovranno poter testare e certificare i dati usati dagli algoritmi così come possono controllare cosmetici, automobili o giocattoli. Dati senza pregiudizio sono necessari per allenare i sistemi ad alto rischio affinché agiscano in modo corretto e rispettino i diritti fondamentali, specialmente l’assenza di discriminazione”. Quanto al delicato tema del riconoscimento facciale, l’Europa ha un atteggiamento di apertura. Il suo uso attualmente è ammesso solo in casi eccezionali e laddove ne sia dimostrata la necessità, ed è soggetto a diverse legislazioni nazionali o comunitarie. Ora, però, la Commissione desidera aprire “un ampio dibattito su quali circostanze, eventualmente, possano giustificare tali eccezioni”.

 

 

 

 

Come noto, Stati Uniti e Cina sono in testa alla classifica mondiale dei Paesi che non solo adottano maggiormente le tecnologie di AI in ambito aziendale e pubblico, ma che più vi investono con stanziamenti, capitali privati, sostegno alle startup. E se l’Europa non può competere con i numeri, allora lo farà con la qualità ovvero, come si legge nel documento, diventando il “leader dell’intelligenza artificiale degna di fiducia” . D’altra parte al nostro continente non mancano certo ricercatori e centri di ricerca, né la competenze sulla robotica applicata a molti rami d’industria e all’agricoltura. Ma di strada da fare ce n’è ancora molta: basti pensare alla scarsa trasparenza delle applicazioni di AI usate dal governo britannico o al discriminatorio sistema di digital welfare usato dal governo olandese.