06/06/2023 di Redazione

Il phishing fa danni su larga scala con i modelli linguistici di AI

Le email di truffa compilate con modelli Generative Pre-trained Transformer (Gpt) crescono vertiginosamente. Un’analisi di Cynet.

immagine.jpg

L’intelligenza artificiale generativa è diventata, tra le altre cose, uno strumento al servizio del cybercrimine e più precisamente del phishing. Gli autori di campagne di email truffa stanno sfruttando i modelli Generative Pre-trained Transformer (Gpt) per ottenere vantaggi di velocità e automazione, nonché per abbassare la soglia tecnica di accesso a questo tipo di attività. In parole povere, l’AI ha reso il phishing più semplice da confezionare ma senza comprometterne l’efficacia.

Cynet, società di sicurezza informatica israeliana, ha riscontrato che attualmente la percentuale di vittime di email di phishing scritte con l’utilizzo di sistemi generativi di AI è cinque volte superiore rispetto alla norma. Verosimilmente, secondo Cynet i modelli linguistici di grandi dimensioni come ChatGPT-4 (la versione più recente ed evoluta del software di OpenAI) stanno aiutando i criminali informatici a creare attacchi più sofisticati ed efficaci, con email linguisticamente accurate e dunque convincenti. 

 

La sofisticazione risiede nella precisione linguistica, ma anche nell’integrazione di codice. In passato gli attacchi di phishing complessi venivano creati da sviluppatori, da persone con competenze tecniche elevate, e condotti materialmente da altri attori malevoli, gli ideatori della truffa. Adesso invece, grazie all’AI generativa, l’ideatore della truffa può anche materialmente confezionare e scagliare l’attacco. Cynet sottolinea che il go-to-market del cybercrime non cambia, ma la novità è che con i modelli linguistici generativi si possono creare attacchi molto sofisticati e su larga scala in modo relativamente facile. D'altra parte anche altre società di cybersicurezza, come per esempio Check Point, di recente hanno sottolineato i rischi dell'intelligenza artificiale sfruttata dal crimine informatico (per il phishing e non solo).

“I modelli Generative Pre-trained Transformer (Gpt) offrono essenzialmente più velocità e automazione ai cybercriminali”, ha commentato Marco Lucchina, channel manager di Italia, Spagna e Portogallo di Cynet, “e, sebbene al momento non siano in grado di modificare in modo rivoluzionario il panorama delle minacce, offrono una maggiore accessibilità anche a persone senza competenze tecniche che possono trasformarsi in criminali informatici. Sfruttando la potenza della tecnologia dell’intelligenza artificiale di cui ChatGPT si può considerare un massimo esponente, le aziende e i privati possono migliorare la produttività e i risultati aziendali con nuove e potenti soluzioni. Tuttavia, è importante bilanciare i potenziali benefici con i potenziali rischi e garantire che l’intelligenza artificiale sia utilizzata in modo etico e responsabile”.

 

 

 Immagine di DilokaStudio su Freepik
 
 
 

Tramite il proprio servizio CyOps Lighthouse, Cynet ha anche osservato un aumento degli attacchi di phishing che installano troian di tipo infostealer, progettati per ottenere dal sistema infetto dati come credenziali di login, sessioni di navigazione, dati bancari, cookie di navigazione e messaggi di chat. Dati che poi vengono rivenduti online o utilizzati in successivi attacchi.

Si tratta, notoriamente, di una minaccia subdola e che può passare inosservata anche per molto tempo: l’infostealer è un malware silente, che si limitano a rubare i dati senza fare altre azioni sulla macchina. Nonostante questi malware siano sempre più sofisticati nella loro forma e nelle loro capacità, è diventato ormai molto facile reperirli, anche senza doverli cercare nel Darkweb. Gli infostealer sempre più sono acquistabili su canali Telegram, per pochi dollari da versare tramite PayPal.

 

 

scopri altri contenuti su

ARTICOLI CORRELATI