Man mano che la presenza dell’AI in azienda matura, si fa più forte l’esigenza da parte di molte aziende di gestire in maniera più efficace ed efficiente la disponibilità dei dati. I modelli e gli agenti intelligenti, infatti, necessitano di dati aggiornati in tempo reale, ma gran parte delle organizzazioni opera ancora su flussi informativi frammentati.
In molti contesti enterprise, i dati rimangono distribuiti tra sistemi eterogenei, con latenze incompatibili con processi decisionali automatizzati. Questo gap limita il valore dell’AI, impedendo alle applicazioni di reagire agli eventi operativi nel momento in cui si verificano. L’integrazione tra IBM e Confluent interviene proprio su questo punto. L’obiettivo è consentire a modelli, agenti AI e workflow automatizzati di operare su dati contestualizzati e in tempo reale.
In altre parole, l’acquisizione mira a rafforzare il posizionamento di IBM nel segmento dei dati in movimento, integrando le capacità di streaming su larga scala con il suo portafoglio già orientato alla governance e all’AI, in modo da creare un’offerta che l’azienda punta a far diventare un riferimento per le architetture data-driven di nuova generazione.
Una piattaforma unificata tra dati “a riposo” e dati “in movimento”
L’acquisizione consente a IBM di completare un disegno architetturale più ampio. La combinazione tra data streaming e piattaforme di data management crea un’infrastruttura in grado di gestire simultaneamente dati storici e flussi in tempo reale, integrando governance, sicurezza e scalabilità. Le integrazioni immediate con soluzioni come watsonx.data, IBM MQ, IBM webMethods Hybrid Integration e IBM Z rappresentano un elemento chiave di questa strategia. In particolare, la possibilità di alimentare sistemi AI con eventi operativi live consente di abilitare decisioni automatizzate a bassa latenza, con impatti diretti su efficienza e competitività.
“Le transazioni avvengono in millisecondi e le decisioni basate sull’AI devono essere altrettanto rapide”, ha dichiarato Rob Thomas, Senior Vice President, IBM Software e Chief Commercial Officer. “Con Confluent mettiamo a disposizione dei clienti un flusso continuo di dati affidabili lungo l’intera organizzazione, permettendo ai modelli e agli agenti di AI di agire su ciò che accade in tempo reale, e non su informazioni superate. Insieme, IBM e Confluent pongono le basi per un nuovo modello operativo, in cui l’AI diventa parte integrante dei processi aziendali e genera valore su larga scala”.
Pensado al contesto mainframe, l’integrazione con IBM Z assume un significato particolare. Portare il data streaming direttamente alla fonte transazionale consente di valorizzare i sistemi mission critical, trasformandoli da repository statici a generatori attivi di insight in tempo reale.
Event-driven enterprise: verso un nuovo modello operativo
Uno degli elementi più rilevanti dal punto di vista business è la transizione verso modelli event-driven. Le aziende possono iniziare a costruire processi che si attivano automaticamente in risposta agli eventi. L’integrazione tra messaging, orchestrazione e streaming consente di creare ecosistemi applicativi in cui API, applicazioni e agenti AI reagiscono in modo coordinato agli stimoli operativi in modo da abilitare nuovi casi d’uso che spaziano dalla gestione dinamica della supply chain all’ottimizzazione in tempo reale delle operazioni.
In generale, è stato osservato che le organizzazioni che adottano il data streaming riescono a ridurre i costi operativi, migliorare la visibilità e accelerare i tempi di risposta al mercato.
“Fin dalla nostra fondazione, la missione di Confluent è stata quella di rendere il data streaming un elemento fondamentale per le imprese, al pari dei database”, ha commentato Jay Kreps, CEO e co fondatore di Confluent. “Entrare a far parte di IBM ci consente di accelerare questa missione grazie a una presenza globale e a relazioni consolidate con il mondo enterprise. In una fase in cui le aziende passano dalla sperimentazione dell’AI alla gestione del business basata su di essa, garantire un flusso continuo dei dati è più che mai cruciale. Non vedo l’ora di vedere cosa costruiremo insieme”.