28/12/2011 di Redazione

Dati al sicuro: le nuove strategie secondo Veeam

Un report di Vanson Bourne fotografa le opinioni di cinquecento chief information officer in merito alle pratiche di virtualizzazione: per il 94% del campione possono pregiudicare le azioni di protezione, backup e recupero dati. Il 79% delle società dovrà

immagine.jpg

Cambia il modo di lavorare, cambiano gli strumenti per mettere al sicuro i dati di proprietà dell'azienda: a fotografare una tendenza in atto nel mondo del lavoro è il Virtualization Data Protection Report 2011, indagine pubblicata da Veeam e condotta dalla società di ricerche di mercato Vanson Bourne, che evidenzia l'impatto dei processi di virtualizzazione e hosted computing sulle procedure di protezione, backup e ripristino dei dati. E che un impatto ci sia è opinione di ben il 94% dei cinquecento chief information officer - di azienda americane, inglesi, tedesche e francesi con più di mille dipendenti - che hanno partecipato al report . Ma di che tipo?

Il crescente ricorso a desktop virtuali intensifica innanzitutto i rischi di perdita dei dati, motivo per cui vanno rafforzate le pratiche di replicazione del server e il supporto al disaster recovery. Più facile a dirsi che a farsi, considerati fattori quali i costi dell'hardware (annoverato fra i principali ostacoli dal 60% degli intervistati), i costi del software di replica (52% delle opinioni) e la complessità delle procedure (42%).

Il gioco, tuttavia, vale la candela, poiché i cio protagonisti del report stimano un risparmio medio di oltre 436.000 dollari all’ora in caso di interruzione dell’operatività di server non replicati. Detto diversamente, un'interruzione di sole quattro ore potrebbe costare a un’azienda oltre 1,7 milioni di dollari.
 
“In un periodo in cui la virtualizzazione contribuisce a una maggiore efficienza dei costi del server, molti potrebbero sostenere che alcuni ostacoli alla replicazione del server dovrebbero scomparire, ma non è questo il caso” afferma Ratmir Timashev, ceo di Veeam Software. Quello che emerge in molte aziende non è tanto un limite tecnologico, ma mentale. “L’80% dei cio intervistati - prosegue Timashev - dichiara che, a causa dell’approccio agent-based delle tradizionali soluzioni di replicazione, quando si raggiunge l’apice del volume di dati che possono essere replicati la differenza tra macchine fisiche e virtuali è davvero minima. Dal nostro punto di vista il limite emerso dallo studio del 2010 persiste nel report del 2011: la mentalità di gestione del mondo fisico viene applicata anche a quello virtuale. Questo riduce non solo il vero potenziale della tecnologia, ma anche gli sforzi aziendali per migliorare le strategie di protezione dei dati”.

Strategie che negli anni diventeranno sempre più vitali. "Le società stanno prendendo decisioni importanti in merito a quello che si considera essere il vero business dei dati critici”, aggiunge il ceo. “Queste decisioni diventeranno ancora più difficili dal momento che le aziende generano sempre più dati, esponendosi di conseguenza a maggiori rischi. Dallo studio è infatti emerso che nel 79% delle aziende gli strumenti attualmente utilizzati per il disaster recovery, una componente critica della strategia di protezione dei dati aziendali, diventeranno meno efficaci”.

Il report rileva anche come oltre un quinto delle aziende (22%) ancora non utilizzi la replicazione del server come procedura standard; nelle società che vi fanno ricorso, inoltre, in media solo il 26% dei server critici viene sottoposto a replicazione. Tra le motivazioni che spingono a duplicare i dati, l'85% del campione include la protezione dalla perdita incidentale, e a seguire la protezione da guasti hardware (70%), da errore umano (49%) e da guasti o malfunzionamenti del data centre (49%).

ARTICOLI CORRELATI