10/12/2024 di Valentina Bernocco

Cybersicurezza e crimine: la “doppia vita” dell’AI nell’anno nuovo

Kaspersky prevede evoluzioni negli utilizzi malevoli dei Large Language Model, tra Apt e operazioni state-sponsored. Ma l’intelligenza artificiale è anche un potente alleato.

previsioni-2025-cybersicurezza-intelligenza-artificiale.jpg

L’intelligenza artificiale nel 2025 sarà ancora un tema caldo per chi – da consumatore, azienda utente, vendor o esperto del settore – si interessa di sicurezza informatica. L’AI, o meglio le diverse forme di AI, diventeranno strumenti ancor più potenti e sofisticati al servizio sia degli attaccanti sia dei difensori e si osserveranno degli spostamenti nel loro utilizzo. Secondo i ricercatori di Kaspersky, dal campo del cybercrimine, teso fondamentalmente al guadagno economico, gli usi malevoli dell’AI sconfineranno nel più complesso ambito delle operazioni state-sponsored e delle minacce persistenti avanzate (Advanced Persistent Threat, Apt). “Abbiamo evidenza finora dell’uso dell’AI soprattutto nel cybercrime e ancora poco nelle Apt”, ha illustrato Giampaolo Dedola, lead security researcher del Global Research and Analysis Team (GReAT) di Kaspersky, in occasione di un incontro con la stampa. “Pensiamo però che i Large Language Model diventeranno uno standard anche per gli attori Apt, che li useranno come assistenti nelle loro operations”. 

Esistono comunque casi reali in cui modelli di GenAI sono già stati utilizzati all’interno di Apt e operazioni state-sponsored. Kaspersky ha evidenze, per esempio, dell’uso dei Large Language Model all’interno di una campagna Apt del noto collettivo Lazarus: l’AI ha consentito di creare un sito Web che sponsorizzava un falso servizio di gaming e che serviva, in realtà, per sfruttare una vulnerabilità di Chrome. Anche OpenAI, grazie all’analisi dei prompt inseriti nel servizio di ChatGpt, ha potuto identificare alcune campagne di disinformazione come quella di un gruppo specializzato in propaganda per il governo dell’Azerbaigian: il chatbot è stato usato per generare informazioni false per profili social creati ad hoc e per rispondere a commenti di utenti reali sui social network. Il gruppo mirava a promuovere il ruolo dell’Azerbaigian come fornitore energetico per l’Europa e a condizionare l’opinione pubblica sulla situazione dei diritti umani nel Paese. Questi episodi, secondo la previsione di Kaspersky, potrebbero essere l’inizio di una nuova tendenza.

“Un altro tema che ci preoccupa è quello dei deepfake, ha proseguito Dedola. “Anche in questo caso ci aspettiamo che inizieranno a essere usati da gruppi Apt e questo è un cambio di paradigma. Finora siamo stati abituati a considerare come affidabili i controlli biometrici, ma con i mezzi disponibili oggi purtroppo è possibile bypassare questi sistemi”. La grande disponibilità di contenuti, audio, video, immagini, caricati online dagli utenti nel corso degli anni è un ulteriore fattore che agevola la realizzazione di attacchi di questo tipo.

Giampaolo Dedola, lead security researcher del Global Research and Analysis Team (GReAT) di Kaspersky

Giampaolo Dedola, lead security researcher del Global Research and Analysis Team (GReAT) di Kaspersky

La terza previsione di Kaspersky per il 2025 riguarda gli attacchi rivolti ai modelli di AI: una possibilità è l’inserimento di backdoor nel codice di modelli open-source, un’altra è la manipolazione dei dataset finalizzata a produrre comportamenti inaspettati. 

“Dalla comparsa dei servizi che offrono accesso agli Llm, nel novembre del 2022, fin dai mesi successivi abbiamo osservato che l’ambiente del cybercrime stava cercando informazioni su questa tecnologia e su come sfruttarla”, ha raccontato Dedola. “In seguito abbiamo visto attacchi reali”. Il phishing va a nozze con le capacità di generazione di testi dei Large Language Model, che vengono quindi usati per creare siti Web esca, anche declinati in molte versioni e lingue: l’attaccante può limitarsi a fornire un template e delle istruzioni. Similmente, gli Llm vengono sfruttati per generare email di phishing, blackmail e spam. Secondo un’analisi effettuata da Kaspersky nel 2023, sul totale delle email di phishing rilevate, circa il 21,3% era un prodotto dell’AI.

C’è poi il già citato fenomeno dei deepfake, usati non solo per attività di disinformazione o satira ma anche per realizzare truffe. “Stanno aumentando di numero, pur essendo ancora relativamente limitati”, ha precisato il ricercatore. “Sono preoccupanti, perché vengono usati insieme a tecniche di social engineering”.

Sempre più di frequente, gli strumenti di GenAI diventano anche dei “copiloti” nelle attività di ricognizione o preparazione che precedono l’attacco vero e proprio, come la ricerca di vulnerabilità, le scansioni di file, la compilazione di elenchi di aziende target, l’offuscamento di codice e altro ancora. L’uso degli Llm come assistenti digitali, ha spiegato Dedola, è una pratica ormai talmente comune che diversi forum di crybercriminali hanno integrato funzionalità per consentire di interrogare direttamente ChatGpt o servizi similari. 

Fra le altre evoluzioni all’orizzonte, è probabile che in futuro gli attaccanti cercheranno di nascondere sempre meglio le proprie attività svolte su servizi Llm pubblici, sia controllando i prompt usati sia creando molteplici account per disperdere le proprie tracce. Una strategia alternativa, per i criminali, potrebbe essere la creazione di servizi Llm privati, eseguiti su risorse locali e quindi non tracciabili da fornitori come OpenAI o da reti di rilevamento.

Le previsioni di Kaspersky non si limitano al ruolo dell’intelligenza artificiale. Il 2025 sarà anche l’anno in cui saranno scoperti ancora più attacchi alla supply chain dei progetti open-source, grazie alla maggiore attenzione al tema e a una migliore capacità di rilevamento. Sempre a proposito di soluzioni a codice aperto, l’anno prossimo molti malware si aggiorneranno alle versioni più recenti di C++ e Go,  sfruttando il crescente utilizzo di questi linguaggi nei progetti open-source.

Nei prossimi mesi vedremo anche un maggiore utilizzo dell’Internet of Things come vettore di attacco dei gruppi Apt, che sfrutteranno server non sicuri e firmware obsoleti, ma anche si insinueranno nei punti deboli della supply chain. E ancora, sempre a proposito di Apt, in queste campagne si utilizzerà sempre più il metodo cosiddetto Byovd (Bring Your Own Vulnerable Driver), già molto usata quest’anno: Kaspersky prevede che si arrivi a tecniche sempre più sofisticate, come l'uso di driver obsoleti o di terze parti, che solitamente non vengono sottoposti a controlli di sicurezza. L’ultima previsione riguarda l’hacktivismo: in quest’ambito si creeranno nuove alleanze tra gruppi interessati a raggiungere obiettivi socio-politici comuni.

previsioni-cybersicurezza-AI-2025-cybercrimine-kaspersky.jpg

Il punto di vista delle aziende

Come si pongono le aziende di fronte a questi rischi emergenti? Ne sono consapevoli? In base a uno studio realizzato per Kaspersky da Arlington Research, con oltre 1.400 responsabili della cybersicurezza intervistati, il 77% delle aziende medie e grandi (dai cento dipendenti in su) ha osservato un incremento di attacchi informatici nei 12 mesi precedenti. Il 43% attribuisce gran parte del fenomeno proprio all’uso dell’intelligenza artificiale.

“Sono dati che non stupiscono”, ha commentato Cesare D’Angelo, general manager Italy & Mediterranean di Kaspersky. “L’intelligenza artificiale sta allargando in modo esponenziale la superficie di attacco ma anche, per così dire, la superficie degli attaccanti, perché abbassa la soglia di accesso”.

Tra i professionisti italiani interpellati, il 68% è seriamente preoccupato per l’uso dell’AI da parte dei criminali informatici e il 29% riconosce che la propria azienda ha dei notevoli gap di cybersicurezza. L’80% ritiene fondamentale affidarsi a esperti esterni, come i vendor di cybersicurezza e il 42% sta già pianificando di farlo.  “Questo non solo significa dotarsi di soluzioni”, ha precisato D’Angelo, “ma rivolgersi ai vendor su livelli alti, come servizi di formazione, di consulenza e professionali, che permettano di colmare i gap esistenti”.

Un problema particolarmente sentito è la famigerata carenza di competenze e di personale specializzato, da dedicare alla cybersicurezza. Per colmare la lacuna, il 49% delle aziende si appoggia a competenze di cybersecurity esterne e il 51% porta avanti programmi di formazione (sarebbe interessante capire quante realtà fanno entrambe le cose e quante, invece, non affrontano il problema in alcun modo).

“Quello che raccomandiamo alle aziende”, ha detto D’Angelo, “è di dotarsi di uno stack solido di cybersicurezza, fondamentalmente un Xdr, aggiungendovi magari la threat intelligence, e di accompagnare i dipendenti con attività di formazione”.

Cesare D’Angelo, general manager Italy & Mediterranean di Kaspersky

Cesare D’Angelo, general manager Italy & Mediterranean di Kaspersky

La cybersicurezza si trasforma con l’AI

Pur prestandosi a utilizzi malevoli, le tecnologie di machine learning sono anche potenti strumenti di difesa, preziosi per esempio nel rilevamento delle anomalie (inclusa l’analisi comportamentale) e nell’automazione delle azioni correttive e della risposta post incidente. “Per noi quelle di AI non sono tecnologie nuove, ce ne occupiamo da anni”, ha rimarcato Fabio Sammartino, responsabile dell’AI Technology Research Center di Kaspersky, un centro di competenza in cui la data science e gli algoritmi di AI vengono usati per rilevare nuove minacce informatiche e attacchi. “Negli ultimi due anni c’è stato però un vero cambio di paradigma, con un’esplosione di nuovi strumenti che possono aiutare le attività degli operatori della cybersecurity”.

I servizi di sicurezza gestiti dell’offerta Mdr (Managed Detection and Response) e le soluzioni di protezione degli endpoint sono, per Kaspersky, le aree di offerta che da più tempo hanno integrato capacità di machine learning. Anche nella linea di prodotti dedicati all’industria e alla tecnologia operativa (Kaspersky Industrial Security) lavorano tecnologie di apprendimento automatico per l’analisi predittiva e il rilevamento di anomalie. Inoltre il machine learning si applica anche ai dati di telemetria anonimizzati che i clienti di Kaspersky decidono di condividere. 

“Le nuove frontiere”, ha raccontato Sammartino, “sono legate alla creazione di modelli di analisi più complessi, con algoritmi di deep learning, reti neurali e analisi neuromorfica, per andare a identificare comportamenti pericolosi e attacchi mirati”. Ma non è tutto: prossimamente Kaspersky integrerà strumenti di GenAI all’interno del portale di threat intelligence e nella soluzione Siem (Security Information and Event Management), con lo scopo di velocizzare la scoperta di minacce e la correlazione di informazioni ed eventi. “La cybersecurity può essere un campo di applicazione estremamente preciso per i Large Language Model che funzionano bene su compiti specifici”, ha osservato il manager italiano. “Seguiranno sicuramente altre integrazioni, perché lo sviluppo tecnologico va in questa direzione e questi strumenti possono aiutare gli analisti di cybersecurity a essere molto più efficaci”.

In questi e ulteriori sviluppi dell’intelligenza artificiale applicata alla cybersicurezza, l’azienda si impegna dichiaratamente su alcuni principi etici. “Sicuramente al primo posto per K. c’è la trasparenza”, ha spiegato Sammartino. “Questo significa che i clienti hanno il diritto di sapere quali dati vengano raccolti e come vengano utilizzati per l’intelligenza artificiale e il machine learning”. Rivolgendosi a uno dei Transparency Center di Kaspersky inagurati in 12 città del mondo (tra cui Roma e Zurigo), aziende, partner ed enti governativi possono visionare gli audit interni ed esterni a cui sono sottoposte tutte le soluzioni, l’analisi delle firme, i processi di sviluppo del software e in alcuni casi anche il codice sorgente.

Fabio Sammartino, responsabile dell’AI Technology Research Center di Kaspersky

Fabio Sammartino, responsabile dell’AI Technology Research Center di Kaspersky

scopri altri contenuti su

ARTICOLI CORRELATI