Per le aziende, adottare l’intelligenza artificiale non è poi così difficile. Ma farlo in modo sicuro e focalizzato, pensando sia alla gestione dei rischi e della compliance sia al successo delle iniziative nel lungo periodo, è un altro paio di maniche. Le data platform giocano un ruolo cruciale, perché tutto parte dai dati: così è, se non altro, nella visione di OpenText. La società canadese ha messo al centro della propria strategia la sicurezza dei dati e la sovranità, combinate però con i vantaggi offerti da due fornitori cloud hyperscaler come Amazon Web Services e Google Cloud (grazie alle recenti alleanze siglate).
Abbiamo approfondito il tema con Shannon Bell, executive vice president, chief digital officer e chief information officer di OpenText. Forte di un’esperienza di oltre 25 anni nel settore informatico, all’interno di OpenText è responsabile dei sistemi IT e digitali dell’azienda, delle piattaforme dati, delle reti e delle comunicazioni, delle operazioni cloud commerciali e corporate, nonché della sicurezza e della compliance.
Nell’adozione dell’AI il 2026, secondo molti analisti e vendor, sarà l’anno del pragmatismo e dell’attenzione al ritorno sugli investimenti. Siete d’accordo?
Sì, condivido questa visione. Stiamo andando oltre la fase in cui le organizzazioni sentivano la pressione di sperimentare l’AI ovunque, ed entrando in una fase molto più pragmatica, focalizzata sul raggiungimento di risultati misurabili. È un passaggio assolutamente necessario. In OpenText, questo percorso lo stiamo vivendo in prima persona. Nel mio ruolo di Cio e Cdo, ho potuto constatare che il valore dell’AI non deriva dall’implementare il maggior numero possibile di strumenti nel minor tempo, ma dalla comprensione dei dati e del loro utilizzo all’interno dell’organizzazione, dall’adozione di adeguati modelli di governance e sicurezza e dall’applicazione dell’AI a casi d’uso chiari, con risultati misurabili.
All’interno di OpenText abbiamo adottato un approccio deliberato all’adozione dell’AI, concentrandoci su produttività, automazione dei workflow, semplificazione della complessità e creazione di valore misurabile, garantendo al contempo adeguati meccanismi di controllo. Questa esperienza guida anche il modo in cui supportiamo i clienti. Sappiamo che una AI affidabile (o AI sicura) non può prescindere dal basarsi su dati affidabili, e che questi richiedono una solida gestione delle informazioni, data governance e sicurezza. Molte organizzazioni stanno comprendendo che portare l’AI in produzione richiede molto più di un modello. Ed è qui che OpenText si distingue: aiutiamo i clienti a passare dalla sperimentazione alla produzione con un’AI sicura, governata, resiliente e allineata a risultati di business concreti, basata su dati correttamente gestiti e governati.
Che cosa cambia con gli agenti AI, rispetto ad altre forme di intelligenza artificiale, in termini di rischi e opportunità?
Nel momento in cui si passa da sistemi che generano output a sistemi in grado di compiere azioni, per le aziende è necessario adottare controlli molto più stringenti. La sfida dell’Agentic AI non riguarda solo ciò che il modello produce, ma anche ciò che è autorizzato a fare, a quali dati può accedere, come questi dati sono protetti e come le sue azioni vengono governate. Questo innalza significativamente il livello richiesto in termini di identità, controllo degli accessi, verificabilità, rafforzamento delle policy e supervisione umana. In pratica, le aziende devono costruire l’Agentic AI su una solida base di gestione delle informazioni, con dati governati e confini chiari nei workflow. Gli agenti possono generare enorme valore, ma solo se operano all’interno di un ambiente affidabile e ben governato.
Quello della sovranità oggi è un tema caldo e molti cloud provider stanno investendo in nuovi data center “locali”. Ma per le aziende è sufficiente pensare alla collocazione geografica dei dati?
La residenza o la localizzazione dei dati è importante, ma rappresenta solo una parte della sovranità. La vera sovranità digitale include anche giurisdizione legale, controllo operativo, resilienza, gestione degli accessi e la capacità di decidere quale livello di protezione sia necessario per ciascun workload. Per questo considero la sovranità come un modello “a livelli”. Non tutti i workload richiedono lo stesso approccio e pochissime organizzazioni adotteranno un unico ambiente. Il mondo è ibrido. La maggior parte dei Cio prende ogni giorno decisioni sul posizionamento dei workload in base alla sensibilità dei dati, ai requisiti normativi e alle esigenze di business. Il ruolo di OpenText è quello di aiutare i clienti a gestire questa complessità. Offriamo opzioni che spaziano da on-premises a cloud privato, cloud pubblico, cloud sovrano e ambienti ibridi. Questo è un elemento distintivo. Aiutiamo le organizzazioni a proteggere i dati più sensibili, consentendo allo stesso tempo di sfruttare innovazione e scalabilità degli hyperscaler quando opportuno.
Il nostro obiettivo è ampliare il supporto al cloud sovrano in Europa e offrire ai clienti maggiore scelta nei modelli di deployment. Questo è il filo conduttore di entrambi gli annunci. I clienti richiedono flessibilità tra on-premises, cloud pubblico, cloud sovrano e modelli ibridi, e noi vogliamo supportarli in ogni fase del loro percorso. Queste partnership portano le soluzioni OpenText all’interno di ambienti sovrani, aiutando le organizzazioni a proteggere i dati sensibili e, allo stesso tempo, a beneficiare della scalabilità e dell’innovazione del cloud. Per i clienti, il risultato è una maggiore libertà di scelta e una maggiore fiducia nei percorsi di modernizzazione verso cloud ed enterprise AI, soprattutto nei settori regolamentati dove la compliance è fondamentale.
Shannon Bell, executive vice president, chief digital officer e chief information officer di OpenText
Come poter trarre valore dall’AI in modo sicuro?
Il punto di partenza sono i dati. Quelli proprietari rappresentano la maggiore opportunità di valore per l’AI, ma anche il principale fattore di rischio. Le aziende devono sapere quali dati possiedono, quanto sono sensibili, dove devono risiedere e quali controlli devono regolarne l’utilizzo. Questo significa costruire l’AI su una base sicura di gestione delle informazioni, con classificazione, controlli di accesso, crittografia, auditabilità ed enforcement delle policy. Significa anche adottare un approccio consapevole al posizionamento dei workload: alcuni dati possono risiedere nel cloud pubblico, mentre altri richiedono controlli più stringenti, come ambienti di cloud sovrano o cloud privato. Il punto è che le aziende non devono scegliere tra innovazione e protezione. Con la giusta governance e strategia di deployment, possono valorizzare i dati proprietari per l’AI proteggendo al contempo proprietà intellettuale, compliance e fiducia dei clienti.
Da che cosa dipenderà l’esito delle iniziative di intelligenza artificiale nel lungo periodo?
Il successo nel lungo periodo dell’enterprise AI parte da dati affidabili, governance solida e obiettivi di business chiari. Le aziende che avranno successo saranno quelle in grado di comprendere i propri dati, applicare i giusti controlli e utilizzare l’AI su priorità concrete. L’AI amplifica sempre la qualità della base su cui si fonda. Un errore da evitare è considerare cloud, sovranità e AI come decisioni separate, perchè oggi sono sempre più interconnesse. Le organizzazioni vincenti adotteranno un approccio pragmatico: conoscere i dati, decidere dove collocare i workload, costruire con governance e sicurezza fin dall’inizio e scalare sulla base di valore misurabile.