15/07/2010 di Redazione

Teradata non ha paura del boom delle informazioni

Gli hard disk non riescono a tenere il passo delle Cpu, così, per continuare a gestire in tempo reale l'enorme quantità di dati generata dal Web, Teradata punta sulle memorie a stato solido. IctBusiness ha intervistato Stephen Brobst, guru mondiale del da

immagine.jpg

L'era degli Zettabyte (ZB) inizierà nel 2011. Questa la previsione di IDC condivisa da Stephen Brobst, Chief Technology Officer di Teradata e guru riconosciuto della tecnologia di Business Intelligence. E quanto vale uno Zettabyte? Beh, mettete 21 zeri dopo l'1 e otterrete la grandezza in byte.

Ebbene, nel 2011, secondo IDC, la quantità di informazioni immagazzinate nel mondo supererà i 500 ZB. Sarà la fine della "Exabyte Age" e l'inizio della "Zettabyte Age", un po' come è successo con l'età del bronzo prima e del ferro poi.

Ma l'umanità, in questo caso il mercato della tecnologia, sarà attrezzata per far fronte all'arrivo della nuova era?

Secondo Brobst qualche dubbio c'è, dovuto principalmente al fatto che la tecnologia dei dischi rigidi non si evolve abbastanza velocemente, e comunque non tanto quanto quella dei processori.

Stephen Brobst, CTO di Teradata.


"Negli ultimi 30 anni", dice Brobst, "le prestazioni delle Cpu si sono incrementate di un fattore superiore al milione di volte. Le dimensioni dei dischi solo di 1.000, il transfer rate addirittura appena di 10. E' evidente che questo non è sufficiente per l'esplosione di informazioni che il Web sta già provocando, tantomeno per la l'ondata dei dati che arriveranno dai sensori montati su un numero sempre crescente di dispositivi connessi a Internet".

E' la famosa "Internet delle cose": i telepass ne sono l'esempio più banale, ma tra pochi mesi automobili, frigoriferi e milioni di altri oggetti trasmetteranno informazioni potenzialmente utili a qualcuno.

Così ci sarà una nuova esplosione della quantità di dati, che per essere gestiti hanno bisogno di due caratteristiche: le dimensioni della memoria e la velocità di accesso.

"Nei prossimi anni anche i dispositivi hardware devono fare un salto di qualità notevole", prosegue Brobst, "l'80 per cento dei dati sarà memorizzato nei dischi, ma l'80 per cento degli accessi avverrà in dischi a stato solido. In questi ultimi saranno infatti archiviate le informazioni utilizzate più frequentemente. Chi deciderà quali informazioni mettere nei dischi tradizionali e quali negli SSD? Potenti e sofisticati software, che utilizzano algoritmi molto raffinati."

Al di là di dove stiano fisicamente i dati, il problema principale che la Business Intelligence dovrà affrontare nel prossimo futuro è la raccolta e l'elaborazione di una quantità di informazioni mai vista prima.
"L'esplosione di due fenomeni, i blog e Facebook", dice Stephen Brobst, "ha fatto sì che i dati subissero un aumento esponenziale. Certo, si tratta di tati in formato testo, non strutturati, che vanno pre-trattati da appositi software prima di essere incorporati nei datawarehouse aziendali".

Stephne Brobst.


Ma il Web non è l'unica fonte di informazioni utili per le aziende: "Tra non molto, i sensori saranno grandi come un granello di sabbia", prosegue Brobst, "è conterranno anche la circuiteria, il trasmettitore e le batterie per funzionare a lungo dovunque siano installati. Ogni automobile, ad esempio, così come ogni essere umano, avrà un indirizzo Ip per connettersi a Internet. Il risultato? Miliardi di potenziali fonti di dati".

Insomma, la quantità da una parte, e la forma non strutturata dall'altra rappresentano la sfida che le informazioni hanno lanciato ai produttori di software di Business Intelligence. Che si stanno attrezzando per offrire ai loro clienti strumenti in grado di ricavare dati utili dalla massa informe di bit che arrivano dal Web e dai sensori: qualsiasi oggetto, ad esempio, potrà essere tracciato e rintracciato dovunque nel mondo; qualsiasi commento a un prodotto o a un'azienda registrato, elaborato e catalogato per capire che cosa ne pensano i potenziali clienti di un certo brand.

Questa grande quantità di dati, per essere elaborata, ha bisogno di paradigmi e architetture nuove. Ed ecco che sono arrivati algoritmi e software per l'elaborazione in parallelo, come Hadoop e Map Reduce, che aiutano i software di Business Intelligence e i data warehouse a gestire l'enorme quantità di informazioni in arrivo.

E così, oltre alla tecnologia SSD dei dischi a stato solido, arrivano in aiuto della Business Intelligence i server dedicati come quelli prodotti da Teradata e i software per l'elaborazione parallela e la strutturazione dei dati testuali e multimediali provenienti dal Web.

Un server Teradata.


"I segmenti di business che stanno già traendo beneficio dalle nuove tecnologie", conclude Brobst, "sono quelli che noi chiamiamo Active Warehousing, vale a dire software che permettono di elaborare i dati e reagire istantanemente come ad esempio quelli per la prevenzione delle frodi, oppure i Location Based Service, dove il nostro software Geospatial è già una soluzione perfetta, ad esempio, per chi gestisce un parco mezzi aziendale o per le società di logistica".

ARTICOLI CORRELATI