L’intelligenza artificiale ha un’etica, o almeno dovrebbe averla? La questione, non solo filosofica ma ricca di risvolti sociali, interessa sicuramente i governi, le università, i grandi pensatori, i rappresentanti dell’economia che ogni anno di riuniscono al World Economic Forum (evento che nell’ultima edizione ha dato molto spazio al tema). La discussione sul bias dei sistemi di intelligenza artificiale, nota da decenni agli informatici, è diventata argomento di discussione anche sui media generalisti. E oggi la questione etica riguarda sempre più anche il mondo delle aziende, che delle applicazioni di intelligenza artificiale sono sia venditori sia clienti. Le riguarda, sì, ma le interessa? Scatena riflessioni e, soprattutto, crea attriti con i clienti?

 

Prova a rispondere a questi dubbi il Capgemini Research Institute ha intervistato 4.400 consumatori di sei Paesi (Stati Uniti, Cina, Francia, Germania, Paesi Bassi, Regno Unito) e 1.580 professionisti di società da oltre un miliardo di dollari di fatturato annuo di 10 Paesi (Cina, Francia, Germania, India, Italia, Paesi Bassi, Regno Unito, Spagna, Stati Uniti e Svezia) interpellando un po’ tutte le figure aziendali, tra alti dirigenti, manager, responsabili delle risorse umane e del marketing, informatici, esperti di data science e di intelligenza artificiale. A completamento dell’indagine quantitativa sono state condotte interviste approfondite con una ventina di esponenti del mondo accademico, imprenditori ed esperti di intelligenza artificiale. 

 

Il risultato di questo imponente lavoro è un report (“Why addressing ethical questions in AI will benefit organizations”) da cui è emersa una sostanziale spaccatura tra i dirigenti d’azienda: uno su due (51%) pensa che garantire l’etica e la trasparenza dei sistemi di AI sia importante per le aziende e per i consumatori. A giudicare dai problemi già sperimentati, però, la percentuale dovrebbe forse essere ben più alta. La schiacciante maggioranza delle grandi imprese, nove su dieci, negli ultimi due o tre anni ha avuto almeno un problema con i propri dipendenti o clienti a causa della scarsa trasparenza dell’AI. 

 

(Fonte: Capgemini Research Institute, “Why addressing ethical questions in AI will benefit organizations”, 2019)

 

 

Le cause dell’etica mancata

Sul perché non ci sia abbastanza trasparenza o rispetto dell’etica nei sistemi di AI, le motivazioni - o le giustificazioni - addotte dalle aziende variano. È successo per colpa dell’ossessione della velocità nel lancio di nuovi servizi (motivo citato dal 34% dei manager intervistati), perché non ci si è proprio posti il problema in fase di progettazione e sviluppo (33%), per la scarsità di mezzi economici, tecnologie o persone da dedicare alla questione (31%), perché nel team aziendale manca la diversity etnica o di genere (29%), perché un codice etico sull’AI o non è stato chiaramente definito o non viene rispettato (28%).

 

Consumatori scontenti

Queste rispettabili motivazioni non possono però oscurare un dato di fatto: in buona misura, i consumatori sono scontenti in merito alla mancanza di trasparenza sui metodi e sugli scopi dell’intelligenza artificiale. Tra i 4.400 utenti coinvolti nell’indagine, quasi la metà (47%) negli ultimi due o tre anni è incappata in “problemi etici” legati all’AI. Il 74% ha detto di desiderare una maggiore trasparenza dai servizi erogato tramite intelligenza artificiale (come l’assistenza clienti tramite chatbot, per fare l’esempio più ovvio, o il marketing personalizzato). il 76% ha detto di essere d’accordo all’idea che l’intelligenza artificiale sia regolata da leggi aggiuntive a quelle esistenti, mentre solo il 6% dissente (il 18% ha espresso incertezza o non ha saputo rispondere). Insomma, per oltre tre persone su quattro è preferibile avere più regole e meno libertà, piuttosto che rischiare impieghi dell’intelligenza artificiale discriminatori, opachi o non verificabili.  Stando alle interviste realizzate, circa sei consumatori su dieci sono spinti a utilizzare con maggior frequenza ed entusiasmo un servizio percepito come “etico”. 

 

Questioni spinose per le aziende

I problemi etici delle applicazioni di AI sono problemi concretamente emersi e non solo teorici: si pensi alle polemiche dell’anno scorso sul riconoscimento facciale basato su tecnologia di Amazon in uso alle forze di polizia di alcune città statunitensi, oppure all’impiego di algoritmi di machine learning per sperimentazioni con droni militari, un progetto del Pentagono in cui era stata coinvolta Google (e da cui l’azienda di Mountain View si era poi defilata per spegnere le critiche). 

 

 

Gli esempi di problemi citati dal report fanno capire come le aziende siano direttamente coinvolte nella discussione, che lo vogliano ammettere oppure no. Che limite dovrebbero rispettare le società nell’uso degli algoritmi per la selezione del personale (senza rischiare di sfociare in una sorta di “eugenetica del recruiting” discriminatoria)? E possono, oppure no, inserire negli apparati di videosorveglianza dei software di intelligenza artificiale, senza chiedere il consenso dei dipendenti? Un sistema di AI che determini se il titolare di un’assicurazione abbia diritto o no a un rimborso come può dimostrare di aver valutato correttamente? Si possono usare i dati personali della gente per i nobili scopi della ricerca medica, anche senza esplicito permesso? 

 

Il giusto approccio

A detta del direttore dei Digital Ethics Lab dell’Oxford Internet Institute, Luciano Floridi,Per le organizzazioni guadagnarsi la fiducia del pubblico in relazione all’utilizzo dell’IA significa garantire trasparenza, ovvero permettere agli utenti di vedere cosa si stia facendo, assumersi la responsabilità delle proprie azioni e permettere alle persone di segnalare eventuali criticità”. Se anche molte domande restano ancora senza risposta, questo sarebbe un buon primo passo. 

 

Anche Capgemini ha qualche consiglio: “Per conquistare la fiducia dei consumatori, le organizzazioni sono chiamate ad attuare sistemi e politiche etiche per l’utilizzo dell'IA. Non si tratta solo di un tema di compliance, ma di un’opportunità per generare benefici significativi in termini di fidelizzazione, engagement e riconoscimento", ha spiegato Andrea Falleni, managing director, Capgemini Business Unit Italy. Le imprese, quindi, dovrebbero definire un codice di condotta basato sui propri valori aziendali e, soprattutto, offrire informazioni e supporto ai destinatari dei servizi.