L’intelligenza artificiale ha rivoluzionato ogni settore, e la cybersecurity non fa eccezione. Mentre gli strumenti basati sull’AI stanno rendendo gli attacchi informatici più accessibili, economici e sofisticati, l’AI è diventata anche uno strumento indispensabile per i difensori. Ne abbiamo parlato con Bharat Mistry, director Product Management di Trend Micro, per capire come affrontare il tema della cybersecurity nell’era dell’intelligenza artificiale.
Iniziamo dal lato oscuro: come sta cambiando il panorama delle minacce con l’uso dell’AI da parte degli attaccanti?
Le minacce rientrano in tre o quattro categorie principali. La prima è l’estorsione all’utente finale, e qui vediamo fenomeni come deepfake video e audio generati con l’AI. La cosa allarmante è che non servono specialisti per fare attacchi avanzati, la barriera all’ingresso per l’hacking è quasi scomparsa: chiunque può tentare, anche senza competenze o infrastrutture complesse. Basta avere un dispositivo e una connessione Internet.
Quindi l’industria dell’hacking sta vivendo una trasformazione completa?
Purtroppo sì, vediamo una crescente sofisticazione in campagne come lo spear phishing, che può essere condotto in qualsiasi lingua o contesto, sfruttando una vasta gamma di tecniche di social engineering. L’AI è anche usata per scoprire e sfruttare le vulnerabilità molto più rapidamente: una vera corsa contro il tempo, con cui si possono trovare e sfruttare le vulnerabilità.
I sistemi di difesa tradizionali sono, quindi, a rischio?
Sì, il terzo aspetto critico è l’utilizzo dell’AI per eludere sistemi di rilevamento come l’Edr, l’Endpoint Detection e Response. Il malware stesso continua ad evolvere: durante un attacco, l’AI può modificare la variante del programma malevolo, apprendere dall’ambiente circostante e cercare di aggirare la protezione degli endpoint.
Fortunatamente, l’AI non è solo uno strumento per gli aggressori. Qual è il suo valore aggiunto per la sicurezza informatica difensiva?
Il valore dell’AI in cybersecurity è immenso. Con una superficie di attacco così vasta, è assolutamente necessario che l’AI lavori al nostro fianco. Il volume di avvisi che un tipico Soc (Security Operations Center) riceve quotidianamente è esploso, passando da poche centinaia a migliaia di alert. L’intelligenza artificiale, quindi, è necessaria per filtrare gli avvisi irrilevanti e mettere in evidenza ciò che è più significativo. Questo filtraggio è cruciale per il business, poiché l’AI può decifrare rapidamente se un attacco apparentemente minore ha in realtà un impatto molto elevato sull’azienda.
Perché l’AI sia efficace, però, deve essere addestrata correttamente…
Dati e modello di addestramento sono assolutamente fondamentali. Aziende come Trend Micro adottano un modello rigoroso per l’addestramento, utilizzando fonti come la nostra Zero Day Initiative e la nostra threat intelligence. Inoltre bisogna mettere in sicurezza i modelli, assicurando che i dati siano validi e controllando chi accede ai modelli stessi. Abbiamo bisogno di un framework che copra l’intero ciclo: dai dati, ai modelli, all’infrastruttura, fino all’utente finale.
Restando in ambito organizzativo, esiste un rischio chiamato "Shadow AI": come affrontate l’uso non autorizzato di strumenti AI da parte dei dipendenti?
La Shadow AI è una grande preoccupazione: se pensavamo che l’adozione del cloud fosse veloce, ora l’adozione dell’AI va alla velocità della luce. Il pericolo maggiore è che le persone carichino dati costosi e sensibili nel cloud; una volta che i dati sono lì, non possono più essere recuperati. Con norme come l’AI Act dell’Unione Europea, le organizzazioni devono adottare policy e misure di salvaguardia.
Oltre a policy e misure di sicurezza, noi di Trend Micro forniamo una soluzione blueprint. La nostra capacità Zero Trust analizza i prompt e i set di dati caricati, determinando se eventualmente ci siano dati sensibili destinati al cloud. Se si tratta di dati sensibili, possiamo bloccarli, se invece sono non sensibili (destinati a strumenti come Copilot o ChatGPT), allora consentiamo il passaggio . L’obiettivo è permettere un utilizzo dell’AI che sia costruttivo e conforme, non disabilitarne l’accesso.
Bharat Mistry, director Product Management di Trend Micro
Viviamo in un mondo frammentato, in cui pesano sempre di più le questioni normative e geopolitiche. Come va gestito questo scenario?
La questione geopolitica è complessa. Organizzazioni come Trend Micro offrono istanze cloud regionali per le nostre soluzioni; queste, inoltre, possono essere implementate in un ambiente di proprietà del partner o nell’on-premise dal cliente. La scelta finale dipende sempre di più dalle esigenze del cliente e dalla sua propensione al rischio. L’impatto delle normative e della geopolitica sul go-to-market è che i partner stanno diventando sempre più importanti per la localizzazione e la personalizzazione delle soluzioni.
I partner devono, quindi, potenziare le proprie capacità?
Certamente, considerando che questa è per loro una grande opportunità di offrire valore aggiunto tramite i servizi. Noi abbiamo la soluzione, ma i partner possono offrire l’intero pacchetto di servizi che gira intorno alla piattaforma, dalla gestione al red o blue teaming, oppure servizi come il “Ciso as-a-Service”. Supportiamo i partner con un programma educativo completo, guidandoli attraverso le varie fasi.
Guardando avanti, pensate che l’AI agentica sarà la prossima grande tendenza nella sicurezza informatica?
Sì, e noi stiamo già utilizzando capacità agentiche nella nostra piattaforma. Per esempio, nelle piattaforme SIEM (Security Information and Event Management), la sfida è sempre come assimilare e unificare i dati (telemetria e syslog da diverse fonti). Mentre un essere umano impiegava tre o quattro giorni per questa operazione, l’AI agentica può ridurre i tempi a sole tre ore.
Oltre al miglioramento della detection engineering e della mappatura degli schemi di attacco, stiamo portando il concetto oltre con l’idea del Digital Twin. L’AI agentica elabora l’ambiente gemello, che è una replica del flusso di informazioni aziendali. Abbiamo un agente red team, un agente blue team e un agente purple team che lavorano insieme per simulare la situazione corrente: in questo modo, è possibile testare come una nuova minaccia si propagherebbe nell’ambiente del cliente. Poiché il lavoro è svolto tramite agenti, è possibile eseguire migliaia di simulazioni senza interagire con l’ambiente fisico.