Deepfake, ingegneria sociale, biometria: i volti dell’AI “cattiva”
Un nuovo report di Europol, Unicri e Trend Micro svela i nuovi rischi del cybercrimine basato sull’intelligenza artificiale: dalle falsificazioni della realtà all’utilizzo dei dati per truffe e attacchi di vario tipo.
Pubblicato il 01 dicembre 2020 da Valentina Bernocco

Il deepfake, cioè la falsificazione dei video e degli audio attraverso tecnologie di intelligenza artificiale, è ormai un fenomeno diffuso. Il grande pubblico ne conosce la dimensione, apparentemente innocua e ludica, di app per smartphone come la cinese Zao, che permette di sostituire la nostra faccia a quella di un personaggio famoso all’interno di spezzoni di video. Ma questa manipolazione della realtà può essere sfruttata anche per scopi di propaganda politica, diffamazione, revenge porn, terrorismo psicologico e, non da ultimo, attacchi informatici.
Si tratta sicuramente di una delle forme di AI più abusate per scopi malevoli. Il deep fake è uno strumento potente per chi fa disinformazione, sia perché diventa sempre più difficile distinguere le immagini manipolate sia perché il Web e i social network contribuiscono a diffondere rapidamente questi contenuti. Nel 2019 un caso eclatante fu quello di un video diffamatorio, circolato su Whatsapp, che mostrava una scena di sesso in cui era coinvolto un rappresentante del governo locale della Malesia. In un successivo video il politico ammetteva di essere una delle persone immortalate dal video. Ne sono seguite discussioni tra chi riteneva i filmati autentici e chi li considerava contraffatti, ma in ogni caso quel che più conta è che ne è sorto un terremoto politico, in seguito al quale la coalizione di governo è stata sottoposta a indagine per presunta corruzione. Un altro esempio di deep fake è quello di una società britannica del settore energia, truffata con un messaggio audio contraffatto (con una manipolazione che riproduceva la voce dell’ammistratore delegato dell’azienda) affinché trasferisse 200mila sterline su un conto bancario ungherese.
Abituare gli utenti a sospettare è il primo antidoto al problema. Ironicamente, i deepfake possono essere uno strumento utile per educare la gente sulla loro pericolosità: nel 2018, per esempio, Buzzfeed ha ingaggiato l’attore e regista Jordan Peele per creare un video in cui si vede un finto Barack Obama invitare le persone a diffidare dei filmati che paiono troppo strani o sensazionalistici per essere veri.
I nuovi pericoli dell’AI
Per quanto inquietante, nel campo della cybercriminalità il deep fake è una forma relativamente semplice di intelligenza artificiale. Altre sono le minacce basate su intelligenza artificiale di cui dobbiamo preoccuparci, come emerge da un nuovo report (“Malicious Uses and Abuses of Artificial Intelligence”) firmato a sei mani dall’Europol, dallo United Nations Interregional Crime and Justice Research Institute (Unicri) e da Trend Micro. “Ci aspettiamo di vedere i criminali sfruttare l’AI in vari modi in futuro”, si legge nel report. “È altamente probabile che i cybercriminali si rivolgeranno all’intelligenza artificiale con il fine di potenziare gli obiettivi e la scala dei loro attacchi, di eludere i rilevamenti e di abusare dell’AI sia come vettore sia come superficie d’attacco”.
Che cosa significa? Significa che aumenteranno gli attacchi basati su tecnologie di AI e di machine learning (una specifica tipologia di AI che analizza enormi volumi di dati attraverso algoritmi) e allo stesso tempo cresceranno quelli che prendono di mira le applicazioni di intelligenza lecite (per esempio, l’autenticazione biometrica). Dunque il vasto e variegato campo dell’AI diventerà un terreno di battaglia, nel quale si fronteggeranno le molte attività al servizi di utenti, aziende e intere nazioni (pensiamo all’uso degli algoritmi nello studio della pandemia e di possibili cure per il covid-19) e quelle sfruttate dai criminali informatici. “Nel momento in cui le applicazioni dell’intelligenza artificiale iniziano ad avere un impatto maggiore nel mondo reale, appare chiaro come questa sarà una tecnologia fondamentale per il futuro”, ha dichiarato Irakli Beridze, responsabile del Centre for AI and Robotics di Unicri. “Ma non sono solo i benefici dell’IA ad essere reali, purtroppo lo sono anche i rischi”.
Password, social network e hackeraggi
L’AI si presta a essere usata per molti scopi malevoli: realizzare attacchi di ingegneria sociale su larga scala, per progettare malware per il furto di documenti, per evitare il riconoscimento facciale o biometrico, per lanciare attacchi ransomware che sfruttano una profilazione intelligente, e ancora per inquinare i dati, identificando falle nelle regole di rilevamento.
I cybercriminali stanno utilizzando il machine learning anche per violare le credenziali di accesso di account protetti. Più precisamente, l’apprendimento automatico può migliorare i già esistenti algoritmi capaci di “andare per tentativi”, confrontando diverse combinazioni di password. Usando tecnologie di reti neurali e Generative Adversarial Network è possibile analizzare degli archivi molto ampi di password e generare variazioni delle stesse sulla base di criteri statistici. Su un forum “underground” lo scorso febbraio i ricercatori di Trend Micro hanno trovato un post dal quale sono risaliti a un simile strumento di analisi delle password, reso disponibile tramite GitHub e capace di gestire facilmente miliardi di dati.
Per i bot di Spotify esiste già un mercato, con prodotti pronti all'uso facilmente acquistabili (Fonte: Trend Micro, "Malicious Uses and Abuses of Artificial Intelligence", 2020)
Altro tipo di attività illecita basata su intelligenza artificiale è l’impersonificazione di (falsi) utenti di social network, finalizzata a vari scopi. Su Spotify, per esempio, con l’AI è stato possibile alterare i flussi di traffico per favorire un certo artista attraverso bot che imitano alla perfezione i pattern di comportamento di persone reali (e che quindi vengono scoperti più difficilmente dai sistemi anti-bot).
“I cybercriminali sono sempre stati early adopter di tecnologie e l’intelligenza artificiale è una di queste”, fa notare Vincenzo Ciancaglini, senior threat researcher di Trend Micro. “Come sottolinea lo studio, è già utilizzata per indovinare password, rompere CAPTCHA e clonare le voci, ma altri utilizzi sono in via di definizione”. I possibili scenari futuri immaginati nel report non sono certo rassicuranti: l’uso dell’intelligenza artificiale per attacchi di phishing ancor più sofisticati, per manipolare le transazioni di cryptovaluta e, fatto ancor più inquietante, per “ingannare” i sistemi di riconoscimento biometrico dei droni di nuova generazione. Considerando che questi velivoli possono essere impiegati in operazioni militari, il rischio di perderne il controllo è particolarmente grave. Nel complesso, è probabile - si legge nel report - che i criminali sfrutteranno l’AI per potenziare i propri attacchi, massimizzando le opportunità di monetizzazione, raggiungendo un maggior numero di vittime e creando nuovi “modelli di business” altamente redditizzi. Il tutto, riuscendo con più facilità a sfuggire ai rilevamenti.
CYBERCRIMINE
- Colpaccio di Fbi ed Europol, hanno “hackerato gli hacker” di Hive
- Complessità e incertezza complicano il lavoro del Ciso
- Attacco ransomware al Guardian, violati dati dei dipendenti
- E-commerce, truffe previste in aumento del 20% nel 2023
- Truffe digitali, il 73% degli utenti non riconosce i messaggi esca
FOCUS
- E-commerce di moda, l’esperienza “taglia unica” non funziona
- Per Nexthink, il digital workplace è una questione di experience
- Spesa IT aziendale “a prova di recessione” anche nel 2023
- La cybersecurity preoccupa solo in parte le aziende italiane
- Al servizio dell’impresa il professionista sempre più digitale