L’intelligenza artificiale, notoriamente, si nutre di dati. Ed è sempre più affamata. Questo verrebbe da dire leggendo l’ultima pubblicazione di Zscaler, il “ThreatLabz 2026 AI Security Report”, basato sull’analisi di 989,3 miliardi di transazioni AI/ML generate da circa 9.000 aziende nella piattaforma Zscaler Zero Trust Exchange tra gennaio e dicembre 2025. Nei dodici mesi oltre 18 petabyte sono confluiti in applicazioni di AI e machine learning, valore in crescita del 93% rispetto al 2024.
In termini di numero di transazioni AI/ML avvenute nelle aziende, invece, la crescita è del 91% anno su anno: i 9.000 clienti di Zscaler nel 2025 ne hanno prodotte quasi un miliardo.
Un enorme volume di attività si concentra sui servizi di AI standalone, come ChatGPT, che da sola ha registrato 115 miliardi di transazioni nel 2025 nella rete di aziende monitorata. Al secondo posto Codeium, un servizio di supporto alla scrittura di codice, con 42 miliardi di transazioni registrate. Cresce, però, anche l’utilizzo di strumenti di AI integrati direttamente in più ampie applicazioni e piattaforme SaaS per aziende.
Dati sensibili a rischio
Il report di Zscaler apre uno squarcio non solo sul fenomeno del boom dei dati, ma svela anche i risvolti di sicurezza dell’adozione dell’intelligenza artificiale, le violazioni di compliance e i rischi di furto dati e di attacchi informatici associati. Il quadro generale è quello di un disallineamento fra la tecnologia, che corre veloce, e le regole sul suo utilizzo, che spesso arrivano tardi o faticano a essere rispettate.
Il 39% delle transazioni AI viene bloccato dall’IT per timori legati alla sicurezza dei dati, per la privacy o per il rispetto delle policy aziendali. Le violazioni più frequenti riguardano i dati personali, sanitari e finanziari, ovvero dati sensibili che secondo il Gdpr devono essere particolarmente tutelati. Per ChatGPT, nello specifico, le violazioni di policy rilevate nel 2025 sono il doppio di quelle del 2024.
Zscaler ci avvisa del fatto che gli strumenti apparentemente privi di rischi sono, in realtà, pericolosi proprio perché si tende a sottovalutare le implicazioni del loro utilizzo: applicazioni come Grammarly, traduttori e assistenti di scrittura trattano spesso contenuti sensibili, perché nei prompt finiscono dati reali come nomi, documenti, informazioni sanitarie e carte di credito.
Attacchi a velocità macchina
E il rischio di un attacco diretto verso modelli o interfacce di intelligenza artificiale è tutt’altro che remoto: i test di red teaming hanno individuato falle critiche nel 100% delle soluzioni analizzate. Falle che, potenzialmente, sono sfruttabili a velocità macchina: in media, bastano 16 minuti per violare un sistema di AI aziendale.
“L'AI non è più semplicemente uno strumento di produttività, ma è diventata il principale vettore di attacchi autonomi a velocità automatica, perpetrati sia da gruppi cybercriminali sia da criminali sponsorizzati dagli Stati”, ha dichiarato Deepen Desai, executive vice president cybersecurity di Zscaler. “Nell'era dell’AI agentica, un'intrusione può passare dalla scoperta allo spostamento laterale fino al furto dei dati nel giro di pochi minuti, rendendo obsolete le difese tradizionali. Per vincere questa sfida, le aziende devono contrastare l'IA con l'IA, adottando un'architettura Zero Trust intelligente che blocchi tutti i potenziali percorsi d'attacco, indipendentemente dal tipo di aggressore”.
Secondo gli autori della ricerca, l’intelligenza artificiale in azienda ha raggiunto un punto critico: non è più solo uno strumento di produttività ma anche un potenziale vettore di attacchi che si diffondono in modo automatico e quasi istantaneo, ben oltre le capacità di risposta umana. Le capacità di Agentic AI saranno sempre più utilizzate da chi attacca per velocizzare le operazioni, delegando al software le attività di ricognizione, sfruttamento delle vulnerabilità e movimento laterale all’interno delle reti.
Lo Zero Trust è d'obbligo
I risultati del report dimostrano, secondo Zscaler, che la governance dell'AI non è più solo una questione di policy, ma è diventata una necessità operativa. Ed è una necessità da affrontare adesso, perché al crescere dei repository di dati associati all’AI salirà anche la posta in gioco. Per la governance sono essenziali la visibilità e la protezione degli interi “ambienti” di intelligenza artificiale, dai dati, ai modelli alle applicazioni, ma i firewall tradizionali e le Vpn non bastano più.
Per eliminare i punti ciechi nella sicurezza è importante un approccio Zero Trust che contempli verifiche continue, accesso con privilegi minimi, ispezione del traffico (anche dei dati crittografati), scoperta e classificazione automatica dei dati sensibili in tutti gli ambienti, segmentazione per limitare i tentativi di spostamento laterale. La stessa intelligenza artificiale, poi, è preziosa per analizzare le minacce e per velocizzare la risposta.