L’intelligenza artificiale non è solo questione di sviluppo tecnologico, ma anche di etica. Ne è convinta l’Unione Europea, che ha formato una task force composta da 52 esperti che avranno il compito di delineare una serie di raccomandazioni per la creazione di applicazioni e software dotato di una certa “morale”. L’obiettivo della Ue è quello di ricevere le prime indicazioni entro la fine di quest’anno, per arrivare a metà del 2019 con un documento ufficiale. In tutto, fanno parte del gruppo anche quattro italiani: Stefano Quintarelli, presidente del Comitato di indirizzo dell'Agenzia per l'Italia digitale (Agid); Luciano Floridi, professore di filosofia ed etica dell'informazione a Oxford; Andrea Renda, sociologo e ricercatore del Ceps (Centre for European Policy Studies) e Francesca Rossi, ricercatrice di Ibm nel campo dell’intelligenza artificiale e docente di informatica in congedo all’Università di Padova.

I rappresentanti dell’High-Level Expert Group on Artificial Intelligence composto dalla Commissione provengono ovviamente dal mondo accademico, ma anche dall’industria (tra le realtà hi-tech spiccano ad esempio Google, Ibm, Nokia Bell Labs e Sap) e dalla società civile. La task force, secondo i piani di Bruxelles, avrà principalmente il compito di supportare la strategia comunitaria sull’Ai e servirà anche come organo direttivo per il progetto European Ai Alliance, all’interno dell’iniziativa del mercato unico digitale tanto caro alla Commissione.

A marzo Bruxelles ha annunciato un piano strategico da venti miliardi di euro per cercare di ridurre il divario con Usa e Cina sull’Ai. Gli organi comunitari hanno già stanziato il 10 per cento del totale dei finanziamenti, che dovrebbero arrivare a regime entro la fine del decennio. Di questi, 1,5 miliardi provengono dal programma Horizon 2020 e 500 milioni dal piano Juncker. I settori presi in considerazione dalla Ue sono diversi: si va dall’Internet delle cose all’Industry 4.0, passando per la lotta alle bufale e la Sanità digitale.