La terza generazione della Business Intelligence sta entrando nel vivo. Almeno, questo è il pensiero di Qlik, società che su questo concetto sta costruendo non solo l’evoluzione della propria piattaforma, ma anche iniziative volte ad aumentare la "cultura del dato" a ogni livello aziendale.

Per capire dove siamo arrivati oggi, occorre partire dalla prima generazione di strumenti analitici, creati essenzialmente per produrre report, poco flessibili e controllati da un piccolo gruppo di specialisti. Poi è arrivata la seconda generazione, che Qlik ritiene di avere in qualche modo trainato, decentralizzando gli analytics, spostandone il controllo sulle aree di business, rendendoli agili e creando così valore in modo più rapido. Oggi, stiamo entrando nella fase in cui gli utenti devono poter lavorare con tutti i dati di cui possono disporre, indipendentemente da dove si trovano e sfruttando tecnologie come l’intelligenza artificiale e il machine learning. A questo si aggiunge il concetto di analytics “embedded”, che dovrebbe portare questi strumenti dentro le applicazioni di uso più comune per gli utenti di business.

Questa democratizzazione degli strumenti analitici dovrebbe implicare una maggior formazione delle figure di business alla comprensione e al corretto utilizzo dei dati. In quest’ottica, Qlik si è mossa promuovendo l’iniziativa Data Literacy Project volto a diffondere una maggior cultura trasversale tanto ai ruoli aziendali quanto agli ecosistemi delle aziende.

Rispetto a queste linee di tendenza, la situazione in Italia è assimilabile? “L’esperienza maturata sul mercato evidenzia come per i nostri clienti oggi conti soprattutto la fiducia nei dati che si possono utilizzare”, racconta Stefano Nestani, regional director di Qlik Italia. “I progetti che realizziamo si fondano sul valore che si riesce a estrarre e sulla facilità di accesso. In sostanza, c’è molta concretezza nelle esigenze che riscontriamo, anche perché partiamo da situazioni di frammentazione e dispersione, fra silos, infrastrutture tradizionali e cloud. Non ci importa sapere dove si trovano i dati, ma come far arrivare quelli che servono nel luogo e nel tempo richiesto dal business”.

 

Stefano Nestani, regional director di Qlik Italia

 

In questa direzione vanno anche le acquisizioni compiute di recente dalla società, in particolare quella di Attunity, che ha portato in dote una soluzione di integrazione dei dati destinata ad aggiungersi alla piattaforma QlikSense. Lo scorso anno c’era stata analoga operazione con Podium Data, nell’ambito della gestione e catalogazione dei dati, che ha generato l’offerta Qlik Data Catalyst. Per quanto riguarda gli sviluppi prodotti “in casa”, l’ultima novità si chiama QlikSense Business, nuova versione cloud-first della piattaforma, pensata soprattutto per le piccole e medie imprese che hanno bisogno di capacità analitiche avanzate, ma non possono permettersi investimenti infrastrutturali.

Il rafforzamento verso le grandi imprese

Quest’ultima evoluzione appare particolarmente interessante per un tessuto economico come quello italiano: “Stiamo comunque crescendo già in doppia cifra”, puntualizza Nestani, “e nel terzo trimestre siamo stati il paese con il miglior risultato in Europa. La nostra forza sta indubbiamente nel midmarket e complessivamente contiamo su alcune migliaia di clienti, ma siamo riusciti ormai a conquistare anche la fascia più alta, su diversi mercati, compresa la Pubblica amministrazione centrale”.

Una parziale conferma arriva da un cliente come Dolomiti Energia, multiutility oggi totalmente concentrata sull’energia rinnovabile, con oltre 1.400 dipendenti e un fatturato di 1,4 miliardi di euro. Qlik è entrata in azienda nel 2017 per effettuare analisi dei dati sui clienti e sul Crm esistente, per poi evolvere verso esigenze di controllo di gestione e vendite, in particolare per analizzare la marginalità generata da ogni cliente. “Abbiamo integrato sei diversi sistemi e dati presenti in più luoghi”, ricorda il Cio Edoardo Fistolera. “Sono stati presi in considerazione oltre 270mila clienti con consumi per 1.700 gigawatt per ora, comparando i ricavi generati con i costi di acquisto dell’energia e quello dei venditori. Il problema più delicato riguardava la certezza del dato, per cui abbiamo lavorato su un modello agile e affinamenti successivi, per andare in produzione dopo sei mesi. Oggi l’80% delle dashboard viene creato direttamente dal business e tutti utilizzano la stessa base dati, ottenendo il dettaglio richiesto e riconoscendo all’It un servizio a valore aggiunto”.