Ci metteranno poco i cybercriminali per trovare il modo di attaccare gli agenti AI o di usarli a proprio vantaggio per arrivare ad altri sistemi, reti, applicazioni o dati aziendali. Non è roseo lo scenario emerso dall’ultimo studio della divisione Zero Labs di Rubrik, “The State of the Agent: Understanding Adoption, Risk, and Mitigation”, che mette insieme un’analisi tecnica dei vettori di attacco emergenti e interviste condotte su 1.600 leader responsabili IT e di cybersicurezza di vari Paesi del mondo.
L’86% degli intervistati pensa che la propria azienda possa, nel giro di un anno, subire attacchi legati all’Agentic AI e alle sue prossime evoluzioni, attacchi che capaci di superare le attuali misure di difesa adottate. Questa tecnologia, rispetto all’AI generativa, introduce uno specifico problema, di cui si inizia a discutere: gli agenti AI sono di fatto delle identità che accedono a sistemi, applicazioni, dati e processi, e spesso con accessi persistenti e supervisione limitata. Si creano, così, nuovi percorsi per utilzzi impropri, compromissioni e movimento laterale”. Peraltro è molto probabile che queste identità macchina siano destinate a moltiplicarsi, con o senza il beneplacito dell’IT. Con la shadow AI si sta creando una “forza lavoro ombra” che l’IT aziendale non vede e non riesce a governare.
Tra gli intervistati italiani, la percentuale di chi prevede rischi concreti entro un anno è pari all’83% e c’è un 3% per cui il pericolo di attacchi tramite agenti AI è già attuale. Meno di un terzo dei responsabili IT e di cybersicurezza (il 23% a livello globale e il 30% in Italia) dichiara di avere piena visibilità sugli agenti che operano nei propri ambienti. Le percentuali, già scarse, secondo Rubrik sarebbero sovrastimate perché spesso i dipendenti usano tecnologie non previste dalle policy dell’IT.
Oltre l'80% degli intervistati a livello globale (72% in Italia) ammette che gli agenti AI richiedono più supervisione manuale rispetto all’efficienza che sono in grado di generare. L’88% (80% in Italia) pensa di non avere la capacità di annullare le azioni degli agenti AI senza il rischio di causare interruzioni di sistema.
La verifica delle identità al centro della sicurezza
Inoltre l’Agentic AI è non solo potenziale bersaglio, ma anche potenziale strumento di attacco. Se questa tecnologia, come prevedibile, diventerà sempre più raffinata e autonoma, allora è anche probabile che venga sfruttata dai cybercriminali in modi oggi ancora non immaginabili. Che fare, dunque? Arrendersi all’inevitabile aumento del rischio oppure cercare di vietare l’adozione di una tecnologia sicuramente innovativa? In realtà una terza via è possibile: considerare la sicurezza informatica non solo come prevenzione di violazioni e attacchi, ma come attività tesa a mantenere il controllo in sistemi automatizzati e indipendenti dall’intervento umano: la continua verifica delle identità è il pilastro di questo approccio.
“L'adozione dell'AI sta superando la nostra capacità di controllarla”, ha commentato Kavitha Mariappan, chief transformation officer di Rubrik. “Le organizzazioni faticano perché hanno implementato sistemi che non possono osservare, governare o ripristinare completamente," dichiara . Dobbiamo andare oltre il dibattito sui rischi dell’AI e affrontare una realtà più complessa: man mano che il processo decisionale si sposta dall'umano alla macchina, la sfida per ogni leader è mantenere la sicurezza operativa in un panorama sempre più autonomo".