08/06/2018 di Redazione

Addio alle armi per l'AI di Google, ma si resta nel mondo militare

L'azienda ha annunciato nuove linee guida, dopo le polemiche sull'uso di TensorFlow nei droni del Pentagono. Si escludono tecnologie utilizzabili per offendere, ma non le collaborazioni con governi e forze militari.

immagine.jpg

Alla fine, Google ha dovuto esplicitarlo: la sua intelligenza artificiale non sarà mai “cattiva”, mai al servizio della guerra o della violenza. La società di Mountain View, fedele al suo motto “Don't be evil” ma anche attenta a non sporcarsi l'immagine, ha pubblicato una serie di linee guida sull'uso di machine learning, algoritmi, computer vision e altre tecnologie di AI. Lo ha fatto per mettere i puntini sulle i alla luce dei dubbi su Project Maven, la collaborazione con il Pentagono avviata per dotare di “intelligenza” droni militari, ovvero renderli capaci di riconoscere gli oggetti e persone osservati dall'alto.

Ai dipendenti non era piaciuto il fatto che le librerie software di TensorFlow potessero contribuire a rendere potenzialmente più micidiale una tecnologia già tanto discussa come quella dei velivoli automatici. Nonostante le rassicurazioni sugli scopi non offensivi della sperimentazione, la pubblicazione di stralci di email fra dirigenti di Google aveva gettato una luce sinistra sui reali interessi della società califoniana. Qualche giorno fa dunque era giunto l'annuncio della rinuncia alla collaborazione con il Dipartimento della Difesa: il contratto, in scadenza l'anno prossimo, non sarà rinnovato.

Ieri con un blogpost l'amministratore delegato Sundar Pichai ha voluto chiarire che “come leader nel campo dell'intelligenza artificiale, sentiamo una profonda responsabilità di farlo nel modo giusto”. Questa tecnologia, infatti, è un poderoso strumento con un grande “potenziale di cambiare le nostre vite”, capace di realizzare imprese come la prevenzione del rischio di incendi, il monitoraggio degli animali da allevamento e il miglioramento della diagnosi del cancro al seno. Ma solleva anche dubbi e paure, e per capirlo basti ricordare le recenti polemiche sul riconoscimento facciale di Amazon.


Dopo aver sottolineato di voler lavorare con “umiltà” e “volontà di adattare il nostro approccio nel tempo a quello che impareremo”, Pichai ha elencato sette principi che vanno intesi “non come concetti teorici”, ma come “standard concreti che determineranno attivamente la ricerca e lo sviluppo di prodotti, e che impatteranno sulle nostre scelte”. Numero uno: l'innovazione in questo campo dovrà produrre miglioramenti per la società, e per questo ogni Google si impegna a pesare i pro e i contro di ogni nuovo progetto nell'ottica del bene comune. In secondo luogo, l'azienda fa un'osservazione interessante: gli algoritmi non sono “neutrali”. Volendo, è possibile usarli per smentire o giustificare delle tesi. “Distinguere i punti di vista giusti e ingiusti non è sempre semplice”, ha ammesso l'amministratore delegato, “e il giudizio può variare da una cultura e società all'altra. Cerchermo di evitare impatti ingiusti sulle persone,, con particolare riferimentro a caratteristiche sensibili come l'etnia, il sesso, l'orientamento sessuale, la nazionalità, il reddito, le convinzioni politiche e religiose.

Come terzo, quarto, quinto e sesto principio Google fa ulteriori promesse: le innovazioni dovranno essere sicure e innoque per le persone; ci dovranno sempre essere una responsabilità e un controllo umani dietro ogni tecnologia di AI; i pricipi della privacy dovranno essere incorporati in ogni fase dell'ideazione e dello sviluppo; le verità della biologia, della chimica e della medicina e il metodo scientifico dovranno essere le fondamenta dell'intelligenza artificiale.

Il problema degli utilizzi“cattivi” dell'AI viene affrontato nell'ultimo punto. “Molte tecnologie possono essere usate per usi svariati”, ha scritto Pichai. “Lavoreremo per limitare le applicazioni potenzialmente dannose e gli abusi”. Google, quindi, di volta in volta valuterà i possibili impieghi delle proprie tecnologie considerando lo scopo primario per cui nascono, il tipo di duffisione (generale o esclusiva), l'impatto potenziale e la natura del proprio coinvolgimento in ciascun progetto (come sviluppatore di strumenti messi a disposizione di altri o come fornitore di soluzioni per i clienti).

 

Sundar Pichai, Ceo di Google

 

Arrivando al dunque, in chiusura di blogpost si chiarisce che Google non contribuirà a creare armi o altre tecnologie il cui principale intento è fare del male, direttamente o indirettamente, né tese a scopi di sorveglianza che violino le leggi internazionali, né lesive dei diritti umani. Tutto questo, però, non significherà rinunciare a collaborazioni con governi, eserciti, forze dell'ordine o agenzie di intelligence. “Voglio essere chiaro sul fatto che non stiamo sviluppando intelligenza artificiale finalizzata alle armi”, ha scritto Pichai, “ma continueremo a lavorare con enti governativi e militari in molte altre aree. Fra queste, la cybersicurezza, l'addestramento, il reclutamento di militari, la salute dei veterani, la ricerca e il soccorso”.

 

ARTICOLI CORRELATI