24/04/2026 di redazione

Agenti AI e cybersicurezza: le "identità ombra" potranno creare problemi

Secondo uno studio di Rubrik, l’86% dei responsabili IT e di cybersicurezza si aspetta di poter subire entro un anno attacchi legati all’Agentic AI.

Ci metteranno poco i cybercriminali per trovare il modo di attaccare gli agenti AI o di usarli a proprio vantaggio per arrivare ad altri sistemi, reti, applicazioni o dati aziendali. Non è roseo lo scenario emerso dall’ultimo studio della divisione  Zero Labs di Rubrik, “The State of the Agent: Understanding Adoption, Risk, and Mitigation”, che mette insieme un’analisi tecnica dei vettori di attacco emergenti e interviste condotte su  1.600 leader  responsabili IT e di cybersicurezza di vari Paesi del mondo.

L’86% degli intervistati pensa che la propria azienda possa, nel giro di un anno, subire attacchi legati all’Agentic AI e alle sue prossime evoluzioni, attacchi che capaci di superare le attuali misure di difesa adottate. Questa tecnologia, rispetto all’AI generativa, introduce uno specifico problema, di cui si inizia a discutere: gli agenti AI sono di fatto delle identità che accedono a sistemi, applicazioni, dati e processi, e spesso con accessi persistenti e supervisione limitata. Si creano, così, nuovi percorsi per utilzzi impropri, compromissioni e movimento laterale”. Peraltro è molto probabile che queste identità macchina siano destinate a moltiplicarsi, con o senza il beneplacito dell’IT. Con la shadow AI si sta creando una “forza lavoro ombra” che l’IT aziendale non vede e non riesce a governare.

Tra gli intervistati italiani, la percentuale di chi prevede rischi concreti entro un anno è pari all’83% e c’è un 3% per cui il pericolo di attacchi tramite agenti AI è già attuale. Meno di un terzo dei responsabili IT e di cybersicurezza (il 23% a livello globale e il 30% in Italia) dichiara di avere piena visibilità sugli agenti che operano nei propri ambienti. Le percentuali, già scarse, secondo Rubrik sarebbero sovrastimate perché spesso i dipendenti usano tecnologie non previste dalle policy dell’IT.

Oltre l'80% degli intervistati a livello globale (72% in Italia) ammette che gli agenti AI richiedono più supervisione manuale rispetto all’efficienza che sono in grado di generare. L’88% (80% in Italia) pensa di non avere la capacità di annullare le azioni degli agenti AI senza il rischio di causare interruzioni di sistema.

<a href="https://it.freepik.com/immagine-ia-gratis/ai-powered-cybersecurity-and-biometric-authentication_418993430.htm">Immagine di freepik</a>

La verifica delle identità al centro della sicurezza

Inoltre l’Agentic AI è non solo potenziale bersaglio, ma anche potenziale strumento di attacco. Se questa tecnologia, come prevedibile, diventerà sempre più raffinata e autonoma, allora è anche probabile che venga sfruttata dai cybercriminali in modi oggi ancora non immaginabili. Che fare, dunque? Arrendersi all’inevitabile aumento del rischio oppure cercare di vietare l’adozione di una tecnologia sicuramente innovativa? In realtà una terza via è possibile: considerare la sicurezza informatica non solo come prevenzione di violazioni e attacchi, ma come attività tesa a mantenere il controllo in sistemi automatizzati e indipendenti dall’intervento umano: la continua verifica delle identità è il pilastro di questo approccio.

“L'adozione dell'AI sta superando la nostra capacità di controllarla”, ha commentato Kavitha Mariappan, chief transformation officer di Rubrik. “Le organizzazioni faticano perché hanno implementato sistemi che non possono osservare, governare o ripristinare completamente," dichiara . Dobbiamo andare oltre il dibattito sui rischi dell’AI e affrontare una realtà più complessa: man mano che il processo decisionale si sposta dall'umano alla macchina, la sfida per ogni leader è mantenere la sicurezza operativa in un panorama sempre più autonomo".

scopri altri contenuti su

ARTICOLI CORRELATI