Come molti analisti, tra cui McKinsey, hanno stabilito, nel 2020 i processi di trasformazione digitale hanno subito un’accelerazione più forte rispetto a tutto il decennio precedente, basti pensare all’e-commerce e allo smartworking. Di fronte alla crescita dei servizi IaaS (Infrastructure as a Service), PaaS (Platform as a Service) e SaaS (Software as a Service), le aziende si sono trovate a dover anticipare il cambiamento invece che a subirlo, e l’IT è stato in prima linea in questa fase di “disruption”.

Il cloud è stato sicuramente un facilitatore in questa trasformazione, ma l’aver costruito rapidamente un’infrastruttura di dati e applicazioni non è una condizione sufficiente per poter dire di aver fatto un buon lavoro: il disegno e la realizzazione di una efficace ed efficiente architettura dei dati è infatti uno snodo cruciale per decretare il successo o meno di una strategia IT e quindi del business di un’organizzazione.

Molte aziende si sono rese conto, a loro spese, che disegnare un’architettura di dati tenendo presente le prerogative dei sistemi di memorizzazione nel cloud, dei data center e nell’edge non è facile, e che ci sono parecchi ostacoli nel percorso.

Prima di tutto, se la vostra impresa non è nativa digitale, probabilmente siete già partiti con l’handicap. Dovrete quindi correre di più per recuperare il terreno perduto, ma potreste scontrarvi con il paradosso del cambiamento-stabilità: per sopravvivere l’impresa deve cambiare, ma non può assumersi un grado di rischio troppo elevato, perché un’eccessiva dinamicità potrebbe portare comunque allo “schianto”.

Sembra un paradosso irrisolvibile, e invece si può affrontare, identificando con cura i punti deboli dell’organizzazione e sviluppando un piano chiaro e strutturato che tenga conto dei rischi e dei benefici. Alla base di tutto, comunque, ci dovrebbe essere il disegno di un’architettura standardizzata per i dati aziendali.

Di solito sono tre gli ostacoli principali che si possono incontrare nel processo di realizzazione di un’architettura dei dati: la difficoltà di localizzarli, le limitazioni delle infrastrutture e il dilemma del cloud.

I dati sono in un universo parallelo

In questi anni abbiamo visto di tutto: floppy disk, dark data, cold storage. La sintesi è che i dati non organizzati e non ben controllati sono stati la base delle inefficienze che hanno ostacolato la buona riuscita di molti progetti IT; se poi ci aggiungiamo il codice scritto di fretta nelle applicazioni legacy che si è accumulato negli anni, riusciamo a vedere quello che alcuni chiamano “debito tecnologico”, cioè un cumulo di inefficienze che si sono “incrostate” nei sistemi e nelle infrastrutture hardware e software e che ovviamente andrebbe saldato una volta per tutte, ad esempio con un modello di gestione dei dati standardizzato e funzionale.

Le limitazioni delle infrastrutture

Sfortunatamente anche le infrastrutture storage mostrano, col tempo, parecchi problemi. Questo principalmente perché quando ci si siede intorno a un tavolo per progettarle, le questioni relative al back-end restano sempre in secondo piano. Il tempo e le risorse limitate spingono le aziende di solito verso progetti più “visibili” lasciando nelle ultime posizioni delle priorità l’ottimizzazione dello storage. Il risultato è che queste lacune vengono puntualmente fuori, ad esempio, quando si inizia la migrazione verso il cloud o quando ci sono da fare degli aggiornamenti critici. In ogni caso, compromettono le possibilità di raggiungere gli obiettivi di lungo periodo. Ogni volta che i reparti IT ricevono l’input di procedere con un miglioramento di tipo tattico invece che strategico (di norma più costoso e più a lungo termine) il “debito tecnologico” aumenta, e si ripresenterà puntuale alla prima occasione.

Il dilemma del cloud

Meglio mettere il cloud nel data center oppure il data center nel cloud? In questi anni, man mano che le infrastrutture sono diventate software defined, i responsabili IT hanno ceduto il controllo agli sviluppatori. Molte delle “crepe” nei sistemi informativi sono dovute a questa scelta. Non tanto per colpa degli sviluppatori, spesso menti aperte ed eclettiche, quanto per la differenza di approccio tra questo tipo di ruoli e i responsabili IT. Questa dicotomia ha generato il dilemma del cloud, anche se, come molti ormai hanno compreso, cloud e data center non devono essere necessariamente mutualmente esclusive.

Connettere e integrare i componenti

Per risolvere questa specie di “inerzia caotica” (generata dai tre principali ostacoli esaminati) bisogna lavorare connettendo e integrando i vari componenti: dati, software e hardware devono essere inseriti in uno stack unificato, in modo che quando si parla di dati sia normale parlare anche di storage.

Una visione che consideri l’architettura dati come un unico stack consente di affrontare anche la dicotomia tra on-premise e cloud, perché anche se non sembra, perfino nel cloud pubblico esiste il pericolo che si formino dei silos.

Il processo corretto per costruire un’architettura dati è questo: individuare i sistemi che devono essere smantellati o “rivisitati” e decidere quali possono essere spostati sul cloud, scegliere soluzioni basate su cloud in modo che possa aumentare il grado di automazione dell’architettura e che il debito tecnologico possa essere ripagato nel corso del ciclo di vita dei sistemi, coinvolgere tutti gli aspetti dell’IT (dai responsabili delle architetture enterprise fino ai team di sviluppo) per poter gestire anche le componenti del “debito tecnologico” che non sono direttamente portate dall’architettura dati ma che potrebbero compromettere la riuscita del progetto.

Dopo aver fatto questi passi, è possibile estendere il proprio data center utilizzando il cloud. In particolare, dopo essersi liberati della pletora di pannelli di controllo delle vecchie architetture, la gestione dei diversi workload diventa molto più semplice. Le imprese possono così portare in cloud applicazioni critiche e servizi storage che prima avrebbero richiesto un pesante lavoro di ri-architettura e che ora invece non solo possono essere migrate, ma possono anche beneficiare della scalabilità tipica degli ambienti sulle nuvole.

L’integrazione delle applicazioni con nuovi servizi in cloud è il modo con cui ripagare più facilmente il “debito tecnologico” accumulato, ed eseguire una buona integrazione significa far lavorare insieme applicazioni e strutture dati, che siano dentro o fuori dal perimetro dell’organizzazione.

In sostanza, una buona e performante architettura storage consente di portare in superficie il vero valore dei dati e in ultima analisi del business della vostra azienda.

La visione di NetApp

NetApp ha sviluppato uno stack per i servizi di dati supportato da qualsiasi piattaforma, uno stack che comprende sia lo storage sia i servizi di data management. Questa offerta funziona on-premise, in cloud e con tutte le varianti che stanno nel mezzo. In più, essendo standard, ha un ciclo di vita più lungo e offre più garanzie che non peserà sul “debito tecnologico” dell’azienda nemmeno a lungo termine.

Per scoprire l’offerta NetApp e capire come possa migliorare il futuro delle architetture dati della tua azienda clicca qui e scarica il white paper “Build a standardized data architecture”