Quantità enormi di dati, immagazzinate nel corso di anni di attività, che rimangono salvate come storico ma che di fatto non costituiscono alcun valore per l’azienda. Può succedere non soltanto alle grandi multinazionali, ma anche alle imprese di media e piccola dimensione. Come possono tutti questi dati non strutturati diventare realmente delle informazioni utili, o addirittura fondamentali, per chi deve prendere delle decisioni e per l’efficienza complessiva di tutto l’organismo aziendale? Ecco il punto di vista di Mario Paladini, amministratore delegato di Pmc International Service, It solution integrator con base a Rho (Milano).

 

Mario Paladini, amministratore delegato di Pmc International Service

 

La richiesta del mercato è riuscire oggi a immagazzinare una quantità di dati sempre maggiore, in modo sempre più veloce, sia in fase di salvataggio sia per la consultazione. “Il mercato dello storage è forse oggi quello più in fermento” ha sottolineato a un nostro recente evento Francesco Casa, storage leader di Ibm Italia, azienda di cui siamo partner. Secondo Ibm le richieste relative allo storage si basano oggi su tre pilastri fondamentali. In primo luogo, le prestazioni: i minori tempi di risposta garantiti dalle memorie flash faranno sì che questi drive allo stato solido conquistino il 75% della fetta di mercato entro il 2020 (oggi siamo al 25%).

In secondo luogo la capacità: orientamento al cloud e agli oggetti, non più ai file. Salvataggi con tag e meta tag funzionali all’intuitiva organizzazione dei dati salvati. Infine la gestione. Software indipendenti dall’hardware, che è ormai quello che le aziende chiedono per avere più flessibilità. Ma queste grandi quantità di dati vanno poi gestite, rese disponibili, analizzate e interpretate, altrimenti portano poco, in termini di valore alle imprese.

 

Macchine che apprendono e trasformano i dati in informazioni utili

 

Giancarlo Lui, direttore tecnico di Pmc International Service, dice spesso che “Quello che ci riserva il futuro del machine learning ha qualcosa di inquietante, con macchine che riescono a progredire in automatico nel processo di apprendimento. Ma non si tratta di magia nera”. Il nostro nuovo prodotto Pmc Machine Learning segue proprio questa strada: è uno strumento capace di analizzare grandi quantità di dati sulla base di complessi modelli matematici e che permette alle macchine di apprendere da queste stesse analisi, correggendosi, mentre ‘imparano’, per fornire output sempre più raffinati e attendibili.

Ma in che situazioni il machine learning va in aiuto delle aziende? Quando devono estrarre informazioni rilevanti da grandi quantità di dati, quando gran parte delle informazioni non sono visibili al cervello umano e quando sarebbe troppo complesso realizzare un software per interpretare i dati (con il machine learning saranno infatti gli stessi dati a definire il software).

Lo abbiamo spiegato alle aziende presenti al nostro ultimo evento del 26 ottobre, dal titolo “Il Dato è Tratto”, proprio per far capire quali siano i limiti degli strumenti diversi da quelli di analisi predittiva quando si tratta di Big Data e gestione di archivi storici di dati aziendali.

Ancora non ce ne accorgiamo, ma le analisi predittive sono già utilizzate in moltissimi dei servizi che sfruttiamo tutti i giorni. Pensate solo alle pubblicità che ci vengono mostrate su Internet: l’insieme delle nostre abitudini di navigazione e di consultazione del web viene analizzato dagli algoritmi di Google per mostrarci in modo mirato le inserzioni commerciali. Così pure nei siti di e-commerce più famosi ed evoluti: algoritmi di analisi predittiva sono in grado di restituire come risultato i prodotti che hanno la percentuale più alta per catturare il nostro interesse, in base sempre ai nostri comportamenti precedenti.

Di esempi ce ne sono moltissimi altri. Questi strumenti diventano sempre più precisi, imparano dagli stessi dati che raccolgono ogni giorno ma anche da quelli già immagazzinati. In uno scenario con queste caratteristiche è l’intersezione tra strumenti informatici, modelli matematici e know how aziendale a permettere di ottenere delle informazioni dai dati non strutturati di partenza. È quello che sono in grado di fare strumenti di analisi come il nostro.

Sfruttando le reti neurali artificiali, consente di realizzare diverse analisi predittive, principalmente supervised/unsurpervised learning e reinforced learning. Si va dal clustering, utilissimo per l’area marketing, alle classificazioni fatte dal sistema stesso senza che abbia ricevuto un input su cosa cercare e come raggruppare i risultati. Anche la rappresentazione visiva in grafici è facilitata: è più intuitiva e funzionale, esportabile nei più comuni formati e quindi pronta a essere utilizzata nelle presentazioni.

Ecco quindi che un prodotto It si trasforma in un vero vantaggio competitivo. È facilmente comprensibile l’enorme utilità delle informazioni che è possibile ottenere anche ‘solo’ da complessi resoconti annuali sulle vendite, ricchi di dati e cifre, sui tempi di gestione del magazzino, sulle abitudini e le caratteristiche dei clienti e così via. Non si tratta solo di trend, ma anche di malfunzionamenti che possono essere esaminati nelle cause e, una volta individuati, corretti.