L’intelligenza artificiale agentica promette di rivoluzionare l’automazione, ma insieme alle opportunità porta con sé un nuovo tipo di rischio: l’errore non umano. Quando un agente AI, dotato di autonomia decisionale, compie un’azione imprevista o sbagliata, le conseguenze possono essere imprevedibili, dai danni ai dati fino all’interruzione di servizi critici. Per mitigarne i rischi, Rubrik ha appena presentato Agent Rewind, la prima soluzione in grado di annullare in modo sicuro e affidabile le azioni indesiderate compiute dagli agenti AI.
Basata sull’infrastruttura AI di Predibase, azienda acquisita recentemente, la nuova tecnologia integra le funzionalità di protezione e ripristino dati del gruppo con un sistema avanzato di osservabilità e controllo sull’intelligenza artificiale autonoma. In altre parole, consente alle imprese di adottare l’AI agentica senza il timore di perdere il controllo: ogni azione può essere tracciata, verificata e, se necessario, annullata.
Dall’errore umano all’errore non umano
Come spiega Johnny Yu, Research Manager di IDC, molte aziende che investono in AI non tengono conto del fatto che gli agenti intelligenti, pur privi di intenzioni, sono soggetti a errori analoghi a quelli umani, ma potenzialmente più rapidi e amplificati. L’AI agentica introduce così il concetto di “errore non umano”: una dinamica in cui le decisioni automatiche possono avere effetti imprevedibili, soprattutto quando interagiscono con sistemi aziendali complessi.
Gli esempi non mancano. Negli ultimi mesi si sono verificati casi di agenti AI che hanno eliminato interi database di produzione, generato contenuti falsati o creato problemi legali e reputazionali. Uno studio recente ha evidenziato come molti agenti autonomi tendano a “perdersi” durante processi in più fasi, confondendo priorità e obiettivi. Tutto ciò mette in discussione la fiducia nell’AI, proprio mentre le aziende cercano di estenderne l’uso in ambiti mission-critical.
“Man mano che gli agenti AI acquisiscono autonomia, anche un piccolo errore può avere un impatto rilevante sull’operatività aziendale” - spiega Anneka Gupta, Chief Product Officer di Rubrik. “Con Agent Rewind vogliamo fornire alle organizzazioni la possibilità di adottare queste tecnologie con fiducia, sapendo di poter tracciare, controllare e ripristinare in modo sicuro ogni azione indesiderata.”
Agent Rewind si presenta come un vero e proprio “sistema nervoso” per l’AI aziendale, in grado di rendere osservabili azioni che prima restavano invisibili. Ogni operazione viene registrata in una cronologia immutabile, creando snapshot e tracce che permettono di capire non solo che cosa è accaduto, ma anche perché.
Anneka Gupta, Chief Product Officer di Rubrik
Dalla semplice osservabilità alla recuperabilità dell’AI
Finora, gli strumenti di osservabilità consentivano alle aziende di sapere cosa fosse successo, ma non come intervenire per invertire i danni. Agent Rewind colma proprio questo vuoto, introducendo visibilità arricchita dal contesto: la soluzione mostra il comportamento degli agenti, l’uso degli strumenti e l’impatto di ogni decisione, collegando le azioni alle loro cause radice – dai prompt iniziali fino alle modifiche sui dati.
Da questa analisi nasce la possibilità del rollback sicuro, un concetto familiare nel mondo IT ma inedito per l’intelligenza artificiale. Rubrik consente di tornare indietro nel tempo e ripristinare in modo selettivo ciò che è stato alterato, limitando i tempi di inattività e riducendo al minimo la perdita di informazioni.
Come ha osservato Chad Pallett, Chief Information Security Officer di BioIVT, partner di ricerca globale nel settore biotecnologico, “quando si utilizza l’AI è necessario garantire non solo la sicurezza dei dati, ma anche la possibilità di annullare le azioni indesiderate. Rubrik e Predibase combinano osservabilità e recuperabilità: in un mercato che chiede controllo reale, Agent Rewind è la risposta che aspettavamo.”
Un’AI che sbaglia… ma da cui si può imparare
Oltre a garantire sicurezza, la capacità di osservare e correggere gli errori dell’AI apre una nuova prospettiva di apprendimento. Le aziende potranno analizzare i pattern di errore degli agenti, migliorare i loro modelli e definire policy di comportamento più robuste. In sostanza, Agent Rewind trasforma il concetto di “errore” in una fonte di conoscenza per affinare l’intelligenza dei sistemi.
Rubrik sottolinea inoltre l’ampia compatibilità della piattaforma, già integrabile con Agentforce, Microsoft Copilot Studio e Amazon Bedrock Agents, oltre a qualsiasi agente personalizzato sviluppato internamente. In un’epoca in cui l’AI agentica si diffonde attraverso ecosistemi sempre più diversi, la flessibilità diventa un requisito essenziale.