• IL NOSTRO NETWORK:
  • The Innovation Group
  • Technopolis
  • ictBusiness.it
logo
logo
  • News
  • Focus
  • Eccellenze.it
  • Strategie di Canale
  • Ti trovi in:
  • Home Page
  • Focus

Deepfake, ingegneria sociale, biometria: i volti dell’AI “cattiva”

Un nuovo report di Europol, Unicri e Trend Micro svela i nuovi rischi del cybercrimine basato sull’intelligenza artificiale: dalle falsificazioni della realtà all’utilizzo dei dati per truffe e attacchi di vario tipo.

Pubblicato il 01 dicembre 2020 da Valentina Bernocco

Il deepfake, cioè la falsificazione dei video e degli audio attraverso tecnologie di intelligenza artificiale, è ormai un fenomeno diffuso. Il grande pubblico ne conosce la dimensione, apparentemente innocua e ludica, di app per smartphone come la cinese Zao, che permette di sostituire la nostra faccia a quella di un personaggio famoso all’interno di spezzoni di video. Ma questa manipolazione della realtà può essere sfruttata anche per scopi di propaganda politica, diffamazione, revenge porn, terrorismo psicologico e, non da ultimo, attacchi informatici.

 

Si tratta sicuramente di una delle forme di AI più abusate per scopi malevoli. Il deep fake è uno strumento potente per chi fa disinformazione, sia perché diventa sempre più difficile distinguere le immagini manipolate sia perché il Web e i social network contribuiscono a diffondere rapidamente questi contenuti. Nel 2019 un caso eclatante fu quello di un video diffamatorio, circolato su Whatsapp, che mostrava una scena di sesso in cui era coinvolto un  rappresentante del governo locale della Malesia. In un successivo video il politico ammetteva di essere una delle persone immortalate dal video. Ne sono seguite discussioni tra chi riteneva i filmati autentici e chi li considerava contraffatti, ma in ogni caso quel che più conta è che ne è sorto un terremoto politico, in seguito al quale la coalizione di governo è stata sottoposta a indagine per presunta corruzione. Un altro esempio di deep fake è quello di una società britannica del settore energia, truffata con un messaggio audio contraffatto (con una manipolazione che riproduceva la voce dell’ammistratore delegato dell’azienda) affinché trasferisse 200mila sterline su un conto bancario ungherese.

 

Abituare gli utenti a sospettare è il primo antidoto al problema. Ironicamente, i deepfake possono essere uno strumento utile per educare la gente sulla loro pericolosità: nel 2018, per esempio, Buzzfeed ha ingaggiato l’attore e regista Jordan Peele per creare un video in cui si vede un finto Barack Obama invitare le persone a diffidare dei filmati che paiono troppo strani o sensazionalistici per essere veri.

 

 

I nuovi pericoli dell’AI
Per quanto inquietante, nel campo della cybercriminalità il deep fake è una forma relativamente semplice di intelligenza artificiale. Altre sono le minacce basate su intelligenza artificiale di cui dobbiamo preoccuparci, come emerge da un nuovo report (“Malicious Uses and Abuses of Artificial Intelligence”) firmato a sei mani dall’Europol, dallo United Nations Interregional Crime and Justice Research Institute (Unicri) e da Trend Micro. “Ci aspettiamo di vedere i criminali sfruttare l’AI in vari modi in futuro”, si legge nel report. “È altamente probabile che i cybercriminali si rivolgeranno all’intelligenza artificiale con il fine di potenziare gli obiettivi e la scala dei loro attacchi, di eludere i rilevamenti e di abusare dell’AI sia come vettore sia come superficie d’attacco”.

 

Che cosa significa? Significa che aumenteranno gli attacchi basati su tecnologie di AI e di machine learning (una specifica tipologia di AI che analizza enormi volumi di dati attraverso algoritmi) e allo stesso tempo cresceranno quelli che prendono di mira le applicazioni di intelligenza lecite (per esempio, l’autenticazione biometrica). Dunque il vasto e variegato campo dell’AI diventerà un terreno di battaglia, nel quale si fronteggeranno le molte attività al servizi di utenti, aziende e intere nazioni (pensiamo all’uso degli algoritmi nello studio della pandemia e di possibili cure per il covid-19) e quelle sfruttate dai criminali informatici. “Nel momento in cui le applicazioni dell’intelligenza artificiale iniziano ad avere un impatto maggiore nel mondo reale, appare chiaro come questa sarà una tecnologia fondamentale per il futuro”, ha dichiarato Irakli Beridze, responsabile del Centre for AI and Robotics di Unicri. “Ma non sono solo i benefici dell’IA ad essere reali, purtroppo lo sono anche i rischi”. 

 

Password, social network e hackeraggi

L’AI si presta a essere usata per molti scopi malevoli: realizzare attacchi di ingegneria sociale su larga scala, per progettare malware per il furto di documenti, per evitare il riconoscimento facciale o biometrico, per lanciare attacchi ransomware che sfruttano una profilazione intelligente, e ancora per inquinare i dati, identificando falle nelle regole di rilevamento.

 

I cybercriminali stanno utilizzando il machine learning anche per violare le credenziali di accesso di account protetti. Più precisamente, l’apprendimento automatico può migliorare i già esistenti algoritmi capaci di “andare per tentativi”, confrontando diverse combinazioni di password. Usando tecnologie di reti neurali e Generative Adversarial Network è possibile analizzare degli archivi molto ampi di password e generare variazioni delle stesse sulla base di criteri statistici. Su un forum “underground” lo scorso febbraio i ricercatori di Trend Micro hanno trovato un post dal quale sono risaliti a un simile strumento di analisi delle password, reso disponibile tramite GitHub e capace di gestire facilmente miliardi di dati.

 

Per i bot di Spotify esiste già un mercato, con prodotti pronti all'uso facilmente acquistabili (Fonte:  Trend Micro, "Malicious Uses and Abuses of Artificial Intelligence", 2020)

 

Altro tipo di attività illecita basata su intelligenza artificiale è l’impersonificazione di (falsi) utenti di social network, finalizzata a vari scopi. Su Spotify, per esempio, con l’AI è stato possibile alterare i flussi di traffico per favorire un certo artista attraverso bot che imitano alla perfezione i pattern di comportamento di persone reali (e che quindi vengono scoperti più difficilmente dai sistemi anti-bot).

 

“I cybercriminali sono sempre stati early adopter di tecnologie e l’intelligenza artificiale è una di queste”, fa notare Vincenzo Ciancaglini, senior threat researcher di Trend Micro. “Come sottolinea lo studio, è già utilizzata per indovinare password, rompere CAPTCHA e clonare le voci, ma altri utilizzi sono in via di definizione”. I possibili scenari futuri immaginati nel report non sono certo rassicuranti: l’uso dell’intelligenza artificiale per attacchi di phishing ancor più sofisticati, per manipolare le transazioni di cryptovaluta e, fatto ancor più inquietante, per “ingannare” i sistemi di riconoscimento biometrico dei droni di nuova generazione. Considerando che questi velivoli possono essere impiegati in operazioni militari, il rischio di perderne il controllo è particolarmente grave. Nel complesso, è probabile - si legge nel report - che i criminali sfrutteranno l’AI per potenziare i propri attacchi, massimizzando le opportunità di monetizzazione, raggiungendo un maggior numero di vittime e creando nuovi “modelli di business” altamente redditizzi. Il tutto, riuscendo con più facilità a sfuggire ai rilevamenti. 

 



 

Tag: cybercrimine, ai, trend micro, intelligenza artificiale, deepfake

CYBERCRIMINE

  • Colpaccio di Fbi ed Europol, hanno “hackerato gli hacker” di Hive
  • Complessità e incertezza complicano il lavoro del Ciso
  • Attacco ransomware al Guardian, violati dati dei dipendenti
  • E-commerce, truffe previste in aumento del 20% nel 2023
  • Truffe digitali, il 73% degli utenti non riconosce i messaggi esca

FOCUS

  • E-commerce di moda, l’esperienza “taglia unica” non funziona
  • Per Nexthink, il digital workplace è una questione di experience
  • Spesa IT aziendale “a prova di recessione” anche nel 2023
  • La cybersecurity preoccupa solo in parte le aziende italiane
  • Al servizio dell’impresa il professionista sempre più digitale
Seguici:
IctBroadcast

Tweets by ictBusinessIT

Top news
  • Più lette
  • Ultime pubblicate
Microsoft pronta a spendere 10 miliardi di dollari per OpenAI?
Ericsson prova a voltare pagina con un nuovo presidente
Cominciano i tagli in Amazon, dipendenti sull’attenti
Consigli e previsioni per una migliore cybersicurezza nel 2023
Veicoli connessi, crescita attesa grazie a 5G e guida assistita
Capgemini Italia è guidata da Monia Ferrari, Falleni promosso
Retelit insieme a Irideos, nuovo polo di servizi cloud e telco B2B
Mercato in trasformazione e focus sui servizi per Vertiv
Impresoft Group sceglie il suo Ceo, Alessandro Geraldi
Il cloud moltiplica il valore dei partner Isv di Microsoft
I Mac di Apple potrebbero abbandonare Broadcom
Vertiv ufficializza il passaggio: Albertazzi è il nuovo Ceo
La data protection fatica ad adattarsi al mondo digitale
Zucchetti acquisisce Piteco e Myrios da Dedagroup
Distributori, Icos compra le attività di cybersecurity di CreaPlus
E-commerce, truffe previste in aumento del 20% nel 2023
Evolvono cultura e competenze sui cloud Pbx dei partner Nfon
Microsoft, rumors su undicimila licenziamenti previsti
Più efficienza e prestazioni per i Lenovo ThinkSystem e ThinkAgile
Attacco ransomware al Guardian, violati dati dei dipendenti
Intel taglia posti di lavoro e stipendi di mid-level e Ceo
Gastone Nencini lascia Trend Micro, promosso Alessandro Fontana
Oracle e Red Hat, vecchie concorrenti pronte a collaborare
WithSecure protegge anche le attività “esterne” di Microsoft Teams
Da Zscaler, Alessio Stellati passa alla guida di Rubrik
Per 5,8 miliardi di dollari, Micro Focus è ufficialmente di OpenText
Le idee innovative per la supply chain fanno crescere Stesi
Guerra tecnologica, stop alle vendite di Qualcomm a Huawei?
Lavoro ibrido, le aziende cercano di conciliare flessibilità e controllo
Smartphone in calo del 18,4% a fine 2022, vendor e distributori cauti
Chi siamo
Contatti
Privacy
Informativa Cookie
News
Focus
Eccellenze.it
Strategie di canale
The Innovation Group
Technopolis
indigo logo tig logo
© 2023 The Innovation Group, via Palermo 5, 20121 Milano | P.IVA 06750900968