Da un lato i sogni di libertà, dall’altro le esigenze di controllo. I progetti di analytics più nuovi, quelli basati sul machine learning e sull’intelligenza artificiale, possono volare alto nelle ambizioni ma devono anche stare con i piedi per terra per concretizzarsi ed essere sostenibili nel tempo. Dall’evento milanese di Sas, una delle oltre cinquanta tappe del roadshow in corso, emerge la doppia anima degli analytics, divisi tra aspirazioni e problemi di fattibilità. Un tema non nuovo nelle aziende, quello dell’analisi dei dati, che però negli ultimissimi anni sta attraversando una trasformazione, complici gli strumenti del cloud (infrastrutture, ma anche risorse per lo sviluppo software come i container), l’esplosione e diversificazione dei Big Data e il passaggio a un approccio più maturo.

 

Le aziende più illuminate stanno transitando dalle semplici analisi dei dati alla vera data science, ma è un percorso tutt’altro che facile. “Fino a pochi anni fa si parlava molto di Big Data, oggi si parla molto di intelligenza artificiale”, osserva dal palco del roadshow Angelo Tenconi, senior presales director South Emea di Sas. “Nei dipartimenti It quando se ne discute emergono due diverse esigenze: da un lato, cercare di essere agili e flessibili nello sviluppare i nuovi algoritmi,; dall’altro necessità di gestione, deployment e scalabilità”. In quello che Sas chiama “ciclo di vita analitico” le due esigenze vanno conciliate. In fase di progettazione e scrittura delle applicazioni, le aziende vogliono avere possibilità di scelta in merito alle fonti di dati, ai linguaggi di programmazione, alle tecniche di analitica da impiegare. Poi c’è il “risvolto della medaglia” come lo definisce Tenconi: per sopravvivere nel tempo, i progetti devono essere scalabili, sicuri e a misura di privacy, fattibili dal punto di vista del deployment e della governance di dati e modelli.

 

Angelo Tenconi, senior presales director South Emea di Sas

 

Come accelerare, dunque, il ciclo di vita degli analytics? Certamente vanno tenuti in considerazione tutti i fattori già citati. Ma si possono anche sfruttare strumenti a cui magari fino a poco tempo fa le aziende non si rivolgevano. “L’offerta di Sas”, spiega il manager, “include la possibilità di usare l’open source ma all’interno di una piattaforma che permette un certo tipo di deployment dei modelli, di monitoraggio delle performance e di governo del ciclo di vita analitico”. Impossibile, poi, non  pensare alla trasformazione più chiacchierata degli ultimi anni. “Sappiamo tutti che molte aziende stanno valutando seriamente di portare la propria infrastruttura in cloud”, prosegue Tenconi. “Nei prossimi anni osserveremo uno spostamento sempre maggiore verso il cloud, sia pubblico sia privato”.

 

Come dare valore ai dati
Anche Idc conferma come il passaggio da progetti di laboratorio di analytics a processi aziendali sostenibili e scalabili sia decisamente complicato, se non altro perché “richiede tanta pazienza e la capacità di imparare dai propri errori”, commenta Giancarlo Vercellino, associate research director di Idc Italia. “Tutti avranno sentito l’espressione di Clive Humby per cui i dati oggi sono il nuovo petrolio. Ma il valore, cioè che rende il dato un oggetto produttivo, sta nella capacità di scomporlo, definirlo e analizzarlo”. Esiste dunque nelle aziende questa capacità, e come alimentarla?

 

Una dimensione del problema riguarda certamente le competenze, e figure assimilabili a quella del data scientist stanno effettivamente comparendo all’interno delle aziende, per contornare l’opera dei chief information officer con conoscenze e abilità specifiche di “scienza dei dati”. Comunque li si voglia chiamare, (chief data officer, chief analytics officer o quant’altro), tali professionisti difficilmente potranno servire alle aziende se i dirigenti line of business non imparano ad “ascoltare”. Prevale ancora, infatti, una cultura manageriale in cui le decisioni vengono prese per convinzioni o strategie personali, anziché basandole sull’oggettività dei dati.

 

 

Giancarlo Vercellino, associate research director di Idc Italia

 

 

Dal modello “oracolo” alla “maieutica” socratica
Una soluzione proposta da Idc è la creazione di quelli che chiama “centri di eccellenza”: delle strutture interne alle aziende in cui si concentrino competenze e responsabilità varie: standardizzare i dati, definire pratiche, processi, tecnologie, architetture, ma anche creare le capacità di base necessarie al personale, occuparsi di gestione e sicurezza dei dati, e altro ancora.  Da un’indagine di Idc (“Cio Sentiment Survey, condotta a maggio 2018 su 150 dirigenti It) è emerso che per il 43% delle aziende statunitensi i centri di eccellenza dovrebbero essere un’unità interna all’It, mentre per altri dovrebbero funzionare come un servizio condiviso tra più divisioni, oppure essere parte delle business operations, o ancora dovrebbe esisterne uno per ogni dipartimento.

 

Senza competenze, in ogni caso, non è possibile compiere quel salto di qualità necessario per usare gli analytics in modo più consapevole, non passivo. Oggi, spiega Vercellino, si sta transitando da un paradigma incentrato sulla BI a uno incentrato sull’AI, in cui si parla di piattaforme di dati. O, per dirla con una metafora, nello sviluppo delle conoscenze stiamo passando da un’adozione degli analytics in modalità “oracolo”, in cui il sapere è calato dall’alto (dalle applicazioni), a una “maieutica”, in cui come nel metodo socratico la conoscenza emerge dalle persone. “La data science è molto bella, ma dobbiamo imparare a impacchettarla bene”, ammonisce l’analista di Idc. Servono quindi le strutture, i processi, le tecnologie e le competenze capaci di trasformare la scienza dei dati in un valore per l’azienda.