17/04/2025 di Roberto Bonino

Sommer (Qlik): Serve una AI literacy per capire come sfruttare i dati

Pioniera della self-BI, l’azienda si è evoluta negli anni verso la costruzione di un data stack, oggi al servizio anche dei progetti di intelligenza artificiale agentica. Il market intelligence lead della società inquadra acquisizioni e sviluppi tecnologici nell’attuale magmatico scenario.

Da molti anni, Qlik si è ricava un ruolo di rilievo nel mercato della business intelligence e degli analytics, offrendo soluzioni che combinano l'integrazione dei dati, l'analisi avanzata e l'intelligenza artificiale. Se la piattaforma Qlik Sense è il perno tecnologico proposto ad aziende che hanno bisogno di esplorare e visualizzare dati in modo interattivo, l'approccio associativo all'analisi ne contraddistingue la proposizione, permettendo di scoprire connessioni tra informazioni provenienti da diverse fonti. L'acquisizione di Talend di un paio d’anni fa ha ampliato le capacità di integrazione, offrendo una soluzione end-to-end che copre l'intero ciclo di vita dei dati.

Più di recente, sono arrivate operazioni analoghe portate a termine con Kyndi (realtà che che ha sviluppato un motore di risposta per l'interrogazione dei dati soprattutto non strutturati tramite linguaggio naturale) e Upsolver (specializzata in tecnologie di streaming dati in tempo reale e ottimizzazione delle tabelle analitiche Apache Iceberg). Queste evoluzioni hanno chiarito come Qlik sia ormai un’azienda non più concentrata solo sulla componente analitica del data management e come la proposizione di uno stack sia funzionale a supportare le aziende nello sviluppo di progetti basati sull’AI, in particolare nella più recente declinazione agentica. Da qui siamo partiti per analizzare lo scenario di riferimento della società con il market intelligence lead Dan Sommer.

Secondo una recente indagine globale che avete commissionato a Idc, Solo il 12% delle aziende dice di essere pronta ad adottare l’Agentic Ai, mentre l'89% ha già in qualche modo lavorato concretamente con l'intelligenza artificiale, seppure solo il 26% su larga scala. È chiaro che l'evoluzione tecnologica sta andando a un ritmo superiore alla capacità delle aziende di essere allineate e pronte a recepirla.  Qual è il ruolo di società come la vostra per aiutare in questo percorso?

I numeri testimoniano di come ci sia parecchia confusione ancora sul potenziale degli agenti. Tutti parlano di questi nuovi sviluppi in modo diverso, ma ci sono effetti che potremmo definire di agent washing, con realtà che dicono di avere offerte in questo senso, ma in realtà non hanno una vera proposta. I dati sono le fondamenta degli sviluppi di intelligenza artificiale. Questo spiega perché noi siamo evoluti nel corso del tempo dalla focalizzazione sugli analytics, che rappresentano la base storica dei nostri sviluppi, sempre più verso un concetto di stack, anche attraverso acquisizioni. Avere la capacità di utilizzare i dati per creare degli insight non è un elemento di novità, ma lo è la capacità di integrare tutto in un workflow. Per noi lavorare con l'intelligenza artificiale non è una novità in senso stretto, perché da almeno dieci anni proponiamo soluzioni in grado di generare augmented analytics, per esempio attraverso dashboard che si creano con il linguaggio naturale e sono in grado di fornire suggerimenti. La novità sta nel fatto che mentre prima queste pipeline erano basate essenzialmente su dati strutturati, ora gli stessi Llm o le tecnologie Rag fanno leva anche sui dati non strutturati. Scommettiamo sulla capacità di combinare queste due diverse fonti e per questo abbiamo introdotto Qlik Answers, una tecnologia che consente di porre domande di ogni tipo in linguaggio naturale, per ottenere risposte basate su insiemi di dati diversi.

Dan Sommer, market intelligence lead di Qlik

Dan Sommer, market intelligence lead di Qlik

Perché avete scelto di essere neutrali rispetto all'utilizzo degli Llm?

La situazione è in costante evoluzione. Oggi c'è un modello come OpenAI che sembra più avanti rispetto agli altri, ma molti fattori stanno suggerendo possibili cambi di scenario anche a breve termine e non si tratta solo di elementi tecnologici ma anche geopolitici. È corretto, per esempio, chiedersi se sia sicuro oggi affidare i propri dati a tecnologie provenienti dagli Stati Uniti. Per questo riteniamo che sia più corretto non sposare un Llm o l’altro.

Come sta procedendo l'assestamento della vostra organizzazione seguito all'acquisizione di Talend?

Oggi Qlik propone un vero e proprio data stack e abbiamo fatto diverse acquisizioni per arrivare a costruire questa proposta. Talend è certamente il nome più importante, ha richiesto un pochino più di tempo per integrare le rispettive culture, ma le successive fasi organizzative si sono completate in modo molto rapido. All’inizio di quest’anno abbiamo acquisito Upsolver e questo che ci ha permesso di supportare le aziende nei processi di ottimizzazione nella costruzione dei loro data lakehouse. Molte realtà hanno investito in questa direzione per mettere in un unico luogo tutti i loro dati strutturati e non, ma spesso hanno incontrato difficoltà legate alla scelta dei database vendor di utilizzare differenti formati. Ora, invece, Apache Iceberg si sta progressivamente imponendo come uno standard di integrazione, ma l’acquisizione ci ha portato anche maggiori capacità di streaming in real time e questo sarà un tema molto importante per gli sviluppi in direzione della Agentic AI, dove la necessità di lavorare su dati aggiornati è fondamentale.

La data literacy è stata uno dei vostri temi portanti degli ultimi anni e sue questo avete sviluppato progetti e iniziative dedicate. Qual è la situazione oggi su questo fronte?

Abbiamo aiutato alcune organizzazioni a fare passi avanti, ma stiamo ancora investendo su questo fronte. Oggi assistiamo all’evoluzione dell’idea di data literacy verso quella che potremmo chiamare AI literacy, per fornire le basi utili a comprendere quando utilizzarla e quando invece può non servire oppure per sapere quale tipologia di dati può valere la pena destinare a un Llm pubblico. L'evoluzione dell'intelligenza artificiale ha fatto sì che si possa chiedere direttamente alla tecnologia di eseguire un data cleaning o far costruire una dashboard, mentre oggi vale più la pena concentrarsi sulla AI literacy come evoluzione naturale di quello che fino a pochi anni fa si faceva sui dati.

Siete stati fra i pionieri del concetto di self-BI, recepito certamente bene dalle funzioni di business delle aziende ma un po' meno dai Cio, che hanno dovuto affrontare sviluppi fuori dal loro controllo. Come sta evolvendo o potrebbe evolvere la situazione nell'era dell’AI? Andremo in direzione della salf-AI, con tutto ciò che si porta dietro in termini di potenziale aumento della complessità?

L’idea della self-BI è tuttora attuale e ha portato nel tempo le aree di business a costruire competenze e piccoli team It interni per sviluppare i loro data products. Il nostro ruolo come fornitori di uno stack nel mondo dei dati è quello di fare in modo che nelle aziende si superino i silos e, infatti, una delle aree di investimento più importanti per noi è quella del data lineage. In questa era degli sviluppi AI, troviamo sia corretto che Il controllo debba sempre più andare in direzione dell’It, per agevolare un maggior controllo e impedire che ci siano sviluppi potenzialmente anche pericolosi per le aziende.

scopri altri contenuti su

ARTICOLI CORRELATI