21/02/2018 di Redazione

Non solo benefattrice, troppe ombre sull'intelligenza artificiale

Le tecnologie di machine learning e automazione portano con sé rischi per la sicurezza digitale e fisica delle persone, come evidenziato da ricercatori delle univesità di Oxford, Cambridge, Stanford, Yale.

immagine.jpg

 

Chi ha paura dell'intelligenza artificiale? Alla domanda solitamente si risponde citando i noti timori di ricadute sull'occupazione o, sconfinando nella fantascienza, quelli di un futuro sopravvento delle machine sull'uomo. Va però aggiunta una paura più concreta e immediata: quella di favoreggiamento del cybercrimine. Un nuovo studio, didascalicamente titolato “Malicious AI report”, cerca di evidenziare il lato oscuro del machine learning e dell'automazione, quello – fino a oggi trascurato – dell'utilizzo malevolo di tecnologie nate per fini benevoli. In quasi cento pagine i 26 autori dello studio, appartenenti a organizzazioni, fra cui le univesità di Oxford, Cambridge, Stanford, Yale e Bath, il Center for a New American Security e l'alleanza Open AI, descrivono il ruolo di involontario complice del cybercrimine di cui l'intelligenza artificiale si è fatta portatrice. Sfruttando l'automazione o la generazione di azioni su larga scala, o ancora particolari forme di rilevamento delle vulnerabilità, l'intelligenza artificiale potrà aiutare i malintenzionati sia ad ampliare la portata delle loro operazioni “tradizionali” (pensiamo alle botnet e al DDoS), sia a creare nuove tipologie di attacco.

Ma portà anche cambiare la natura stessa delle minacce, che diventereanno particolarmente efficaci, mirate su target specifici e più difficili da attribuire a un responsabile. L'intelligenza artificiale, inoltre, potrà diventare la peggior nemica di sé stessa, nel senso che i sistemi di AI dei cybercriminali sapranno andare a caccia di vulnerabilità in altri sistemi costruiti sull'AI, di qualsiasi genere. E il pericolo incombe sia sulla sicurezza, per così dire, digitale delle persone (rischi per la privacy, furto di dati, truffe) sia sulla sicurezza fisica, come illustrato con una serie di esempi.

La casistica delle possibilità è ampia e inquietante, arrivando persino a immaginare dei “robot assassini”, che nascono come macchine destinate a fare le pulizie o a svolgere altri compiti innocui e che, riprogrammati dai cybercriminali, possono attentare alla vita di personaggi politici. Dall'attuale e già alto livello di sofisticazione, le campagne di phishing potrebbero diventare ancor più chirurighe, personalizzate e dunque efficaci, mentre quelle di social engineering potrebbero prepararsi il terreno carpendo informazioni alla vittima ingaggiata da un chatbot che si finge una persona reale. Dopo un dialogo apparentemente non sospetto, il programma potrebbe convincere l'utente a scaricare un allegato malevolo, per esempio. L'automazione applicata alla ricerca delle vulnerabilità, invece, potrà aiutare i criminali a velocizzare enormemente le loro operazioni di “caccia al bug”.

E poi i droni: anche quelli sviluppati per uso “civile”, destinati per esempio all'agricoltura o a catturare riprese aeree, potrebbero trasformarsi in micidiali armi dotate di autonomia e “intelligenza”. La capacità di riconoscimento delle immagini e dei volti, per esempio, potrebbe consentire a un drone di individuare anche da lontano la vittima da colpire. Si pensi poi anche al rischio di hackeraggio dei futuri veicoli a guida autonoma o al pericolo che un sistema di AI deputato al controllo del traffico (banalmente, dei semafori) possa interpretare erroneamente un segnale visivo.

 

 

In tutti questi casi, l'intelligenza artificiale aggrava il pericolo non solo perché può essere sfruttata dai criminali ma perché, eliminando il ruolo degli individui in molte comunicazioni e sistemi, rende difficile intervenire “manualmente” per arginare un attacco in corso. L'automazione, in sostanza, si tramuta in catena distruttiva. Lo scopo degli autori del report non è tuttavia quello di negare l'importanza dell'evoluzione tecnologica, ma solo quello di accendere i riflettori sui rischi più o meno nascosti dell'intelligenza artificiale.

Nessuno mai ipotizzerebbe una prematura morte di questo fenomeno, almeno guardando agli investimenti compiuti da tanti e tali colossi tecnologici che è impossibile elencarli tutti: Amazon, Microsoft, Apple, Google, Facebook, Samsung, Tesla e moltissimi altri produttori di automobili. Oltre che alla guida autonoma, l'AI è funzionale al mondo del retail, alle applicazioni per smartphone, ai sistemi di domotica e smart speaker, ai processori fotografici, ai servizi di consulenza finanziaria, alla scienza e, non da ultimo, alla cybersicurezza (per esempio, nelle attività di rilevamento dei malware e dello spam). Secondo le previsioni di Markets and Markets, da qui al 2022 il mercato dell'intelligenza artificiale – hardware, software, piattaforme e servizi – crescerà a un tasso annuale composto del 62,9%, arrivando a superare i 16 miliardi di dollari di valore.

In questo futuro roseo, almeno dal punto di vista del giro d'affari dei vendor, l'importante è non dimenticare il monito proveniente dal mondo accademico. A oggi, la possibilità di attacchi cybernetici basati sull'intelligenza artificiale è stata solo evidenziata, a scopo dimostrativo, da ricercatori e informatici. Ma “il ritmo del progresso nell'AI suggerisce che probabilmente presto emergeranno cyberattacchi in corso che fanno leva su capacità di machine learning, ammesso che non sia già accaduto”, si legge nel report. Un sondaggio eseguito sui partecipanti di una recente conferenza di Black Hat ha evidenziato che il 62% è convinto che tali attacchi si manifesteranno ben presto, nel giro di dodici mesi.

 

ARTICOLI CORRELATI