Elon Musk ci aiuterà a difenderci dal “lato oscuro” dei robot. L’imprenditore a capo di Tesla Motors e di Space X, noto per le idee avveniristiche (non sempre di facile realizzazione, come nel recente incidente del razzo vettore Falcon 9), ha donato milioni di dollari per un progetto mirato a finanziare l’intelligenza artificiale “buona”, al servizio dell’uomo e del progresso, quasi mettendo in pratica le famose Leggi di Asimov. Il Future of Life Institute di Boston ha raccolto 7 milioni di dollari, in gran parte da Musk e in misura minore dall’associazione Open Philanthropy Project, destinandoli a 37 gruppi di lavoro selezionati da 300 richieste di adesione e finanziamento.

Il fine comune di questi team di ricercatori, scienziati e informatici è quello di far sì che l’intelligenza artificiale non imbocchi strane derive né sia impiegata per fini non etici, placando così le preoccupazioni espresse da personalità come Stephen Hawking, Bill Gates e lo stesso Elon Musk. Quest’ultimo in gennaio aveva annunciato un impegno da 10 milioni di dollari, di cui la donazione al Future of Life Institute rappresenta una prima tranche.

Diversi i progetti che potranno realizzarsi grazie alla sua generosità. Un gruppo di lavoro diviso fra l’Università della California, quella di Berkeley e quella di Oxford intende sviluppare un algoritmo capace di apprendere le preferenze delle persone e che può rendere i sistemi di intelligenza artificiale meno “razionali”. Alla Duke University, in North Carolina, si lavorerà per applicare all’intelligenza artificiale tecniche tratte dall’informatica, dalla psicologia e dalla filosofia: il risultato sarà un sistema in grado di esprimere giudizi morali e di prendere decisioni basate sull’etica.

 

Elon Musk

 

Con i nuovi finanziamenti Nick Bostrom, un docente di filosofia della Oxford, insieme all’ateneo di Cambridge potrà inaugurare un centro di ricerca dedicato alla creazione di policy che possano minimizzare i rischi dell’intelligenza artificiale e massimizzarne i benefici.

Negli Stati Uniti, i ricercatori universitari di Denver si preoccuperanno della messa a punto di armi “intelligenti” che non sfuggano al controllo umano, mentre quelli di Stanford, in California, cercheranno di superare il problema del diverso comportamento dei sistemi robotici in laboratorio e nelle applicazioni reali. Al Machine Intelligence Research Institute di Berkeley, invece, costruirà modelli “giocattolo” di sistemi di intelligenza artificiale per studiarne il funzionamento prima di costruirli su scala reale.