Architetture di dati: l’approccio integrato di NetApp
Nella progettazione di quello che è il “cuore” di un sistema informativo, software, dati e hardware dovrebbero essere considerati come un unicum, superando la vecchia concezione a silos. La multinazionale, leader nel segmento dello storage, ha una proposizione collaudata ed efficace che va proprio in questa direzione.
Pubblicato il 19 maggio 2021 da Redazione

Nel processo di costruzione di un’architettura dei dati, raccontavamo in un articolo precedente, “Come integrare e standardizzare le architetture dati”, si possono incontrare tre ostacoli: la difficoltà di localizzare le informazioni, le limitazioni delle infrastrutture storage e il problema di come configurare il cloud rispetto al proprio data center.
La soluzione, si diceva, è l’adozione di una visione olistica, di uno stack unificato in grado di contenere il caos generato dalle tante variabili in gioco e dalle tante componenti da integrare.
NetApp ha sviluppato questa soluzione, proponendo uno stack per i servizi di dati supportato da qualsiasi piattaforma, un’architettura che comprende sia lo storage sia i servizi di data management. Questa offerta funziona on-premise, in cloud e con tutte le varianti che stanno nel mezzo. In più, essendo standard, ha un ciclo di vita più lungo rispetto alle soluzioni proprietarie.
I servizi di gestione dello storage e dei dati che fanno parte dell’offerta unificata di NetApp coprono praticamente tutte le esigenze che possono sorgere in azienda, e sono applicabili a qualsiasi strategia, che preveda un uso più o meno esteso del cloud (con tutti i principali provider).
Tra le soluzioni NetApp che possono essere utilizzate per implementare con successo questa visione olistica dell’architettura dati ci sono Cloud Volume Service per AWS e Google Cloud, Cloud Volumes Ontap, Azure NetApp Files e Global File Cache. Insieme a tutti gli altri prodotti, servizi e opzioni dell’offerta NetApp, integrabili con praticamente tutte le architetture presenti sul mercato, possono contribuire a realizzare una vera ed efficace trasformazione digitale che metta al centro i dati.
La strategia ibrida e multicloud di NetApp
Gartner ha affermato che le architetture ibride costituiscono le basi di partenza che consentono alle organizzazioni di estendersi oltre i propri data center e nei servizi cloud. Nel Magic Quadrant dedicato allo storage primario, Gartner evidenzia che NetApp ONTAP offre la migliore integrazione con i maggiori fornitori di servizi di cloud storage; inoltre, in un recente articolo, IDC ha affermato che le organizzazioni che cercano di implementare nuovi carichi di lavoro o aggiornare le infrastrutture It dovrebbero prendere in considerazione NetApp, poiché l’offerta della multinazionale è all'avanguardia nell'intersezione tra storage on-premise e cloud ibrido. NetApp è considerata unica nella sua capacità di fornire una gestione dei dati coerente ovunque si voglia conservare i dati.
La teoria dei 6 step
La metodologia dei 6 step, introdotta da AWS (“6 Strategies for Migrating Applications to the Cloud”), mira a spiegare i passaggi che i clienti dovrebbero compiere quando cercano di spostare i servizi da un ambiente on-premise nel cloud pubblico.
Quando si adotta una strategia cloud, la prima cosa che si consiglia di fare è capire quali sono i servizi eseguiti internamente che è possibile “riacquistare” all’sterno.
In un modello SaaS, molto spesso il primo passo nel cloud pubblico consiste nell’adozione di Microsoft Office 365. Uno degli aspetti trascurati dai clienti è che si aspettano che l'acquisto di un servizio SaaS fornisca gli stessi livelli di continuità aziendale in caso di ripristino. Ma non è così. Salesforce, ad esempio, consiglia di ricorrere a una terza parte per gestire il backup del suo ambiente, perché i rischi possono arrivare da caricamenti batch dei dati o da dipendenti infedeli, che ovviamente non possono essere gestiti dalla piattaforma del vendor.
NetApp ha contribuito a colmare questa lacuna, mettendo a disposizione le proprie soluzioni di backup SaaS e fornendo un ricco set di funzionalità che consentono di recuperare i dati che potrebbero andare persi nell’utilizzo di un software SaaS.
Il passaggio successivo, sempre suggerito da AWS, consiste nel ricollocare i dati con una metodologia tipicamente lift-and-shift.
La cosa più semplice, in una migrazione al cloud, è spostare ciò che è on-premise in uno dei provider di cloud pubblico. Tuttavia, molto spesso capita che le efficienze che sono state costruite internamente, come la deduplica dei dati, la compattazione e la compressione vengano perse nella migrazione. NetApp ha lavorato duramente con tutti e tre i principali hyper-scaler per incorporare il proprio sistema operativo nei loro ambienti. Ciò significa che quando si cerca di migrare i dati nei diversi cloud, li si sposta su una piattaforma di gestione dei dati comunque integrata con ONTAP. Ciò permette di preservare le stesse funzionalità di efficienza, compressione e compattazione che si avevano a disposizione in locale, con la stessa esperienza utente nel cloud pubblico.
Il terzo passo è la migrazione delle applicazioni. Abbiamo assistito a molti progetti in cui le aziende spostano applicazioni critiche nell’ambiente di uno dei grandi provider e lavorano con NetApp per migliorarne l’esperienza.
Cloud Volume Service (AWS/Google) ed Azure NetApp Files sono servizi nativi erogati e gestiti interamente dagli hyper-scaler. Consentono una migrazione granulare in cloud delle applicazioni basate su file che necessitano di alte performance, bassissima latenza e scalabilità mondiale. Contemporaneamente garantiscono le principali funzionalità di ONTAP come efficientamento, snapshot e cloni istantanei, nonchè la portabilità del dato tramite SnapMirror nel tempo, evitando il lock-in.
Il quarto passaggio è ri-fattorizzare le applicazioni. Molto spesso, quando si parla di re-factoring, si parla di metodologie agili come l'adozione di un approccio DevOps per la distribuzione dei servizi nel cloud. Il più delle volte ciò porta alla containerizzazione e la maggior parte delle aziende sceglie di utilizzare Kubernetes. NetApp, attraverso il progetto Astra, ha creato un livello di astrazione che si trova al di sopra dei provider di cloud pubblico, e che consente di creare oggetti Kubernetes e distribuirli a piacimento in Azure, Google cloud, AWS o anche nell'infrastruttura locale.
Molti clienti scoprono che quando si creano servizi containerizzati, sebbene sia possibile farlo in modo nativo in uno dei cloud pubblici, si genera comunque un lock-in, il che significa che se si creano ad esempio i servizi in Azure e in un secondo momento si desidera spostarli in Google Cloud, potrebbero nascere problemi. Lavorando con il progetto NetApp Astra, il livello di astrazione rende più facile il rilascio e lo spostamento di applicazioni e container tra i cloud pubblici e on-premise, rimuovendo quindi i lock-in.
Il quinto passaggio consiste nel capire che cosa non è possibile spostare in cloud e come gestirlo in locale. Le aziende di solito mirano a creare un ambiente cloud privato che abbia un aspetto e un comportamento simile al cloud pubblico. Ciò significa avere a disposizione agilità, scalabilità e facilità di gestione. In questo scenario NetApp consiglia di costruire un infrastruttura cloud ibrida di alto livello.
Una volta completati tutti questi passaggi, lo step finale è quello di terminare le applicazioni in locale.
Per scoprire l’offerta NetApp e capire come possa migliorare il futuro delle architetture dati della tua azienda clicca qui e scarica il white paper “Build a standardized data architecture”
BIG DATA