• IL NOSTRO NETWORK:
  • The Innovation Group
  • Technopolis
  • ictBusiness.it
logo
logo
  • News
  • Focus
  • Eccellenze.it
  • Strategie di Canale
  • Ti trovi in:
  • Home Page
  • Focus
  • Big Data

Come integrare e standardizzare le architetture dati

Quando si pensa alle architetture dati bisogna adottare un approccio unificato, in modo che lo storage faccia parte del disegno tanto quanto il software e le informazioni da trattare. Solo così si possono evitare i danni collaterali dei progetti realizzati a silos, che impediscono una corretta e veloce trasformazione digitale. La visione e la proposta di NetApp.

Pubblicato il 21 aprile 2021 da Redazione

Come molti analisti, tra cui McKinsey, hanno stabilito, nel 2020 i processi di trasformazione digitale hanno subito un’accelerazione più forte rispetto a tutto il decennio precedente, basti pensare all’e-commerce e allo smartworking. Di fronte alla crescita dei servizi IaaS (Infrastructure as a Service), PaaS (Platform as a Service) e SaaS (Software as a Service), le aziende si sono trovate a dover anticipare il cambiamento invece che a subirlo, e l’IT è stato in prima linea in questa fase di “disruption”.

Il cloud è stato sicuramente un facilitatore in questa trasformazione, ma l’aver costruito rapidamente un’infrastruttura di dati e applicazioni non è una condizione sufficiente per poter dire di aver fatto un buon lavoro: il disegno e la realizzazione di una efficace ed efficiente architettura dei dati è infatti uno snodo cruciale per decretare il successo o meno di una strategia IT e quindi del business di un’organizzazione.

Molte aziende si sono rese conto, a loro spese, che disegnare un’architettura di dati tenendo presente le prerogative dei sistemi di memorizzazione nel cloud, dei data center e nell’edge non è facile, e che ci sono parecchi ostacoli nel percorso.

Prima di tutto, se la vostra impresa non è nativa digitale, probabilmente siete già partiti con l’handicap. Dovrete quindi correre di più per recuperare il terreno perduto, ma potreste scontrarvi con il paradosso del cambiamento-stabilità: per sopravvivere l’impresa deve cambiare, ma non può assumersi un grado di rischio troppo elevato, perché un’eccessiva dinamicità potrebbe portare comunque allo “schianto”.

Sembra un paradosso irrisolvibile, e invece si può affrontare, identificando con cura i punti deboli dell’organizzazione e sviluppando un piano chiaro e strutturato che tenga conto dei rischi e dei benefici. Alla base di tutto, comunque, ci dovrebbe essere il disegno di un’architettura standardizzata per i dati aziendali.

Di solito sono tre gli ostacoli principali che si possono incontrare nel processo di realizzazione di un’architettura dei dati: la difficoltà di localizzarli, le limitazioni delle infrastrutture e il dilemma del cloud.

I dati sono in un universo parallelo

In questi anni abbiamo visto di tutto: floppy disk, dark data, cold storage. La sintesi è che i dati non organizzati e non ben controllati sono stati la base delle inefficienze che hanno ostacolato la buona riuscita di molti progetti IT; se poi ci aggiungiamo il codice scritto di fretta nelle applicazioni legacy che si è accumulato negli anni, riusciamo a vedere quello che alcuni chiamano “debito tecnologico”, cioè un cumulo di inefficienze che si sono “incrostate” nei sistemi e nelle infrastrutture hardware e software e che ovviamente andrebbe saldato una volta per tutte, ad esempio con un modello di gestione dei dati standardizzato e funzionale.

Le limitazioni delle infrastrutture

Sfortunatamente anche le infrastrutture storage mostrano, col tempo, parecchi problemi. Questo principalmente perché quando ci si siede intorno a un tavolo per progettarle, le questioni relative al back-end restano sempre in secondo piano. Il tempo e le risorse limitate spingono le aziende di solito verso progetti più “visibili” lasciando nelle ultime posizioni delle priorità l’ottimizzazione dello storage. Il risultato è che queste lacune vengono puntualmente fuori, ad esempio, quando si inizia la migrazione verso il cloud o quando ci sono da fare degli aggiornamenti critici. In ogni caso, compromettono le possibilità di raggiungere gli obiettivi di lungo periodo. Ogni volta che i reparti IT ricevono l’input di procedere con un miglioramento di tipo tattico invece che strategico (di norma più costoso e più a lungo termine) il “debito tecnologico” aumenta, e si ripresenterà puntuale alla prima occasione.

Il dilemma del cloud

Meglio mettere il cloud nel data center oppure il data center nel cloud? In questi anni, man mano che le infrastrutture sono diventate software defined, i responsabili IT hanno ceduto il controllo agli sviluppatori. Molte delle “crepe” nei sistemi informativi sono dovute a questa scelta. Non tanto per colpa degli sviluppatori, spesso menti aperte ed eclettiche, quanto per la differenza di approccio tra questo tipo di ruoli e i responsabili IT. Questa dicotomia ha generato il dilemma del cloud, anche se, come molti ormai hanno compreso, cloud e data center non devono essere necessariamente mutualmente esclusive.

Connettere e integrare i componenti

Per risolvere questa specie di “inerzia caotica” (generata dai tre principali ostacoli esaminati) bisogna lavorare connettendo e integrando i vari componenti: dati, software e hardware devono essere inseriti in uno stack unificato, in modo che quando si parla di dati sia normale parlare anche di storage.

Una visione che consideri l’architettura dati come un unico stack consente di affrontare anche la dicotomia tra on-premise e cloud, perché anche se non sembra, perfino nel cloud pubblico esiste il pericolo che si formino dei silos.

Il processo corretto per costruire un’architettura dati è questo: individuare i sistemi che devono essere smantellati o “rivisitati” e decidere quali possono essere spostati sul cloud, scegliere soluzioni basate su cloud in modo che possa aumentare il grado di automazione dell’architettura e che il debito tecnologico possa essere ripagato nel corso del ciclo di vita dei sistemi, coinvolgere tutti gli aspetti dell’IT (dai responsabili delle architetture enterprise fino ai team di sviluppo) per poter gestire anche le componenti del “debito tecnologico” che non sono direttamente portate dall’architettura dati ma che potrebbero compromettere la riuscita del progetto.

Dopo aver fatto questi passi, è possibile estendere il proprio data center utilizzando il cloud. In particolare, dopo essersi liberati della pletora di pannelli di controllo delle vecchie architetture, la gestione dei diversi workload diventa molto più semplice. Le imprese possono così portare in cloud applicazioni critiche e servizi storage che prima avrebbero richiesto un pesante lavoro di ri-architettura e che ora invece non solo possono essere migrate, ma possono anche beneficiare della scalabilità tipica degli ambienti sulle nuvole.

L’integrazione delle applicazioni con nuovi servizi in cloud è il modo con cui ripagare più facilmente il “debito tecnologico” accumulato, ed eseguire una buona integrazione significa far lavorare insieme applicazioni e strutture dati, che siano dentro o fuori dal perimetro dell’organizzazione.

In sostanza, una buona e performante architettura storage consente di portare in superficie il vero valore dei dati e in ultima analisi del business della vostra azienda.

La visione di NetApp

NetApp ha sviluppato uno stack per i servizi di dati supportato da qualsiasi piattaforma, uno stack che comprende sia lo storage sia i servizi di data management. Questa offerta funziona on-premise, in cloud e con tutte le varianti che stanno nel mezzo. In più, essendo standard, ha un ciclo di vita più lungo e offre più garanzie che non peserà sul “debito tecnologico” dell’azienda nemmeno a lungo termine.

Per scoprire l’offerta NetApp e capire come possa migliorare il futuro delle architetture dati della tua azienda clicca qui e scarica il white paper “Build a standardized data architecture”

Tag: cloud, storage, data management

CLOUD

  • Oracle e Red Hat, vecchie concorrenti pronte a collaborare
  • Sap a metà del guado. Il cloud tira, ma arrivano tagli
  • Telefonia e collaborazione dello studio legale volano in cloud
  • Attacchi cloud-based in forte crescita, danni superiori alla media
  • Il cloud di Amazon Web Services si allarga in Australia

BIG DATA

  • Gli strumenti di Google per gestire i dati nel cloud
  • Ai, un “bestiario” che può produrre ottimi risultati
  • Data management e sicurezza, ultime frontiere as-a-service
  • Un’iniezione di potenza per le database machine di Oracle
  • Tibco si potenzia all’insegna della Rpa e del cloud
Seguici:
IctBroadcast

Tweets by ictBusinessIT

Top news
  • Più lette
  • Ultime pubblicate
Microsoft pronta a spendere 10 miliardi di dollari per OpenAI?
Ericsson prova a voltare pagina con un nuovo presidente
Consigli e previsioni per una migliore cybersicurezza nel 2023
Veicoli connessi, crescita attesa grazie a 5G e guida assistita
Capgemini Italia è guidata da Monia Ferrari, Falleni promosso
Retelit insieme a Irideos, nuovo polo di servizi cloud e telco B2B
Cominciano i tagli in Amazon, dipendenti sull’attenti
Mercato in trasformazione e focus sui servizi per Vertiv
Impresoft Group sceglie il suo Ceo, Alessandro Geraldi
Il cloud moltiplica il valore dei partner Isv di Microsoft
I Mac di Apple potrebbero abbandonare Broadcom
La data protection fatica ad adattarsi al mondo digitale
Zucchetti acquisisce Piteco e Myrios da Dedagroup
Distributori, Icos compra le attività di cybersecurity di CreaPlus
Vertiv ufficializza il passaggio: Albertazzi è il nuovo Ceo
Più efficienza e prestazioni per i Lenovo ThinkSystem e ThinkAgile
Microsoft, rumors su undicimila licenziamenti previsti
E-commerce, truffe previste in aumento del 20% nel 2023
Attacco ransomware al Guardian, violati dati dei dipendenti
Caos Libero Mail e Virgilio Mail, ipotesi di class action. Di chi è la colpa?
Unify cambia (ancora) padrone e si appresta a passare a Mitel
Meta ancora in calo, il 2023 sarà “l’anno dell’efficienza”
Libero Mail e Virgilio Mail tornano alla normalità, previsti rimborsi
Sap sposta infrastruttura e offerta su Red Hat Enterprise Linux
Scomparso Gianfranco Lanci, storica guida di Acer e Lenovo
Intel taglia posti di lavoro e stipendi di mid-level e Ceo
Gastone Nencini lascia Trend Micro, promosso Alessandro Fontana
Oracle e Red Hat, vecchie concorrenti pronte a collaborare
WithSecure protegge anche le attività “esterne” di Microsoft Teams
Da Zscaler, Alessio Stellati passa alla guida di Rubrik
Chi siamo
Contatti
Privacy
Informativa Cookie
News
Focus
Eccellenze.it
Strategie di canale
The Innovation Group
Technopolis
indigo logo tig logo
© 2023 The Innovation Group, via Palermo 5, 20121 Milano | P.IVA 06750900968