• IL NOSTRO NETWORK:
  • The Innovation Group
  • Technopolis
  • ictBusiness.it
logo
logo
  • News
  • Focus
  • Eccellenze.it
  • Strategie di Canale
  • Ti trovi in:
  • Home Page
  • Focus
  • Big Data

Come integrare e standardizzare le architetture dati

Quando si pensa alle architetture dati bisogna adottare un approccio unificato, in modo che lo storage faccia parte del disegno tanto quanto il software e le informazioni da trattare. Solo così si possono evitare i danni collaterali dei progetti realizzati a silos, che impediscono una corretta e veloce trasformazione digitale. La visione e la proposta di NetApp.

Pubblicato il 21 aprile 2021 da Redazione

Come molti analisti, tra cui McKinsey, hanno stabilito, nel 2020 i processi di trasformazione digitale hanno subito un’accelerazione più forte rispetto a tutto il decennio precedente, basti pensare all’e-commerce e allo smartworking. Di fronte alla crescita dei servizi IaaS (Infrastructure as a Service), PaaS (Platform as a Service) e SaaS (Software as a Service), le aziende si sono trovate a dover anticipare il cambiamento invece che a subirlo, e l’IT è stato in prima linea in questa fase di “disruption”.

Il cloud è stato sicuramente un facilitatore in questa trasformazione, ma l’aver costruito rapidamente un’infrastruttura di dati e applicazioni non è una condizione sufficiente per poter dire di aver fatto un buon lavoro: il disegno e la realizzazione di una efficace ed efficiente architettura dei dati è infatti uno snodo cruciale per decretare il successo o meno di una strategia IT e quindi del business di un’organizzazione.

Molte aziende si sono rese conto, a loro spese, che disegnare un’architettura di dati tenendo presente le prerogative dei sistemi di memorizzazione nel cloud, dei data center e nell’edge non è facile, e che ci sono parecchi ostacoli nel percorso.

Prima di tutto, se la vostra impresa non è nativa digitale, probabilmente siete già partiti con l’handicap. Dovrete quindi correre di più per recuperare il terreno perduto, ma potreste scontrarvi con il paradosso del cambiamento-stabilità: per sopravvivere l’impresa deve cambiare, ma non può assumersi un grado di rischio troppo elevato, perché un’eccessiva dinamicità potrebbe portare comunque allo “schianto”.

Sembra un paradosso irrisolvibile, e invece si può affrontare, identificando con cura i punti deboli dell’organizzazione e sviluppando un piano chiaro e strutturato che tenga conto dei rischi e dei benefici. Alla base di tutto, comunque, ci dovrebbe essere il disegno di un’architettura standardizzata per i dati aziendali.

Di solito sono tre gli ostacoli principali che si possono incontrare nel processo di realizzazione di un’architettura dei dati: la difficoltà di localizzarli, le limitazioni delle infrastrutture e il dilemma del cloud.

I dati sono in un universo parallelo

In questi anni abbiamo visto di tutto: floppy disk, dark data, cold storage. La sintesi è che i dati non organizzati e non ben controllati sono stati la base delle inefficienze che hanno ostacolato la buona riuscita di molti progetti IT; se poi ci aggiungiamo il codice scritto di fretta nelle applicazioni legacy che si è accumulato negli anni, riusciamo a vedere quello che alcuni chiamano “debito tecnologico”, cioè un cumulo di inefficienze che si sono “incrostate” nei sistemi e nelle infrastrutture hardware e software e che ovviamente andrebbe saldato una volta per tutte, ad esempio con un modello di gestione dei dati standardizzato e funzionale.

Le limitazioni delle infrastrutture

Sfortunatamente anche le infrastrutture storage mostrano, col tempo, parecchi problemi. Questo principalmente perché quando ci si siede intorno a un tavolo per progettarle, le questioni relative al back-end restano sempre in secondo piano. Il tempo e le risorse limitate spingono le aziende di solito verso progetti più “visibili” lasciando nelle ultime posizioni delle priorità l’ottimizzazione dello storage. Il risultato è che queste lacune vengono puntualmente fuori, ad esempio, quando si inizia la migrazione verso il cloud o quando ci sono da fare degli aggiornamenti critici. In ogni caso, compromettono le possibilità di raggiungere gli obiettivi di lungo periodo. Ogni volta che i reparti IT ricevono l’input di procedere con un miglioramento di tipo tattico invece che strategico (di norma più costoso e più a lungo termine) il “debito tecnologico” aumenta, e si ripresenterà puntuale alla prima occasione.

Il dilemma del cloud

Meglio mettere il cloud nel data center oppure il data center nel cloud? In questi anni, man mano che le infrastrutture sono diventate software defined, i responsabili IT hanno ceduto il controllo agli sviluppatori. Molte delle “crepe” nei sistemi informativi sono dovute a questa scelta. Non tanto per colpa degli sviluppatori, spesso menti aperte ed eclettiche, quanto per la differenza di approccio tra questo tipo di ruoli e i responsabili IT. Questa dicotomia ha generato il dilemma del cloud, anche se, come molti ormai hanno compreso, cloud e data center non devono essere necessariamente mutualmente esclusive.

Connettere e integrare i componenti

Per risolvere questa specie di “inerzia caotica” (generata dai tre principali ostacoli esaminati) bisogna lavorare connettendo e integrando i vari componenti: dati, software e hardware devono essere inseriti in uno stack unificato, in modo che quando si parla di dati sia normale parlare anche di storage.

Una visione che consideri l’architettura dati come un unico stack consente di affrontare anche la dicotomia tra on-premise e cloud, perché anche se non sembra, perfino nel cloud pubblico esiste il pericolo che si formino dei silos.

Il processo corretto per costruire un’architettura dati è questo: individuare i sistemi che devono essere smantellati o “rivisitati” e decidere quali possono essere spostati sul cloud, scegliere soluzioni basate su cloud in modo che possa aumentare il grado di automazione dell’architettura e che il debito tecnologico possa essere ripagato nel corso del ciclo di vita dei sistemi, coinvolgere tutti gli aspetti dell’IT (dai responsabili delle architetture enterprise fino ai team di sviluppo) per poter gestire anche le componenti del “debito tecnologico” che non sono direttamente portate dall’architettura dati ma che potrebbero compromettere la riuscita del progetto.

Dopo aver fatto questi passi, è possibile estendere il proprio data center utilizzando il cloud. In particolare, dopo essersi liberati della pletora di pannelli di controllo delle vecchie architetture, la gestione dei diversi workload diventa molto più semplice. Le imprese possono così portare in cloud applicazioni critiche e servizi storage che prima avrebbero richiesto un pesante lavoro di ri-architettura e che ora invece non solo possono essere migrate, ma possono anche beneficiare della scalabilità tipica degli ambienti sulle nuvole.

L’integrazione delle applicazioni con nuovi servizi in cloud è il modo con cui ripagare più facilmente il “debito tecnologico” accumulato, ed eseguire una buona integrazione significa far lavorare insieme applicazioni e strutture dati, che siano dentro o fuori dal perimetro dell’organizzazione.

In sostanza, una buona e performante architettura storage consente di portare in superficie il vero valore dei dati e in ultima analisi del business della vostra azienda.

La visione di NetApp

NetApp ha sviluppato uno stack per i servizi di dati supportato da qualsiasi piattaforma, uno stack che comprende sia lo storage sia i servizi di data management. Questa offerta funziona on-premise, in cloud e con tutte le varianti che stanno nel mezzo. In più, essendo standard, ha un ciclo di vita più lungo e offre più garanzie che non peserà sul “debito tecnologico” dell’azienda nemmeno a lungo termine.

Per scoprire l’offerta NetApp e capire come possa migliorare il futuro delle architetture dati della tua azienda clicca qui e scarica il white paper “Build a standardized data architecture”

Tag: cloud, storage, data management

CLOUD

  • Icos partner dell’Università di Bolzano per alleviare lo skill shortage
  • Multicloud pronto a raddoppiare (o quasi) nel giro di un triennio
  • Nuovi record e lunga vita agli hard disk (anche grazie al cloud)
  • L’archiviazione di Pure Storage incontra gli analytics di Snowflake
  • Dal SaaS, e soprattutto in Europa, la nuova spinta per Infor

BIG DATA

  • Gli strumenti di Google per gestire i dati nel cloud
  • Ai, un “bestiario” che può produrre ottimi risultati
  • Data management e sicurezza, ultime frontiere as-a-service
  • Un’iniezione di potenza per le database machine di Oracle
  • Tibco si potenzia all’insegna della Rpa e del cloud
Seguici:
IctBroadcast

Tweets by ictBusinessIT

Top news
  • Più lette
  • Ultime pubblicate
Quale cloud per le aziende e la Pubblica Amministrazione italiana?
Un futuro articolato per il software e i servizi per i professionisti
Arriva da Avaya il nuovo chief operating officer di Ivanti
Da Achab il servizio Mdr di Sababa che facilita la vita agli Msp
Visibilità e controllo dei rischi con l’ecosistema Trend Micro One
Ospedali milanesi, bloccati i sistemi IT per colpa di un ransomware
Bitdefender rafforza le strategie di canale con una doppia nomina
Sean Kerins è il nuovo amministratore delegato di Arrow Electronics
Cloud portatore di resilienza, la spesa mondiale cresce del 34%
Ancora un trimestre record per Apple, boom dei servizi
Lo smart working a Venezia è unico e non teme paragoni
Sophos potenzia scoperta e risposta alle minacce con Soc.Os
Icos si consolida in Germania con l’acquisizione di Brainworks
Giovanna Sangiorgi da Oracle a NetApp per guidare l’Emea
Samsung ha raddoppiato gli utili operativi nel giro di un anno
Crisi dei semiconduttori estesa fino al 2024, ma Intel è ottimista
Phishing in ascesa, l’email non è l’unica risorsa per chi attacca
Il lavoro ibrido rende felici e fa risparmiare tempo e denaro
Per la salute dei pazienti c’è anche bisogno di sicurezza informatica
Pc e tablet, vendite in leggero calo ma Apple può festeggiare
Con DANI, Arrow facilita gli spostamenti in città ai disabili
Oltre tremila nuove assunzioni e collaborazioni per Capgemini Italia
Cybersecurity awareness, che cos’è e come gestirla efficacemente
Icos partner dell’Università di Bolzano per alleviare lo skill shortage
Possibile vendita di Vmware, scatta l’ipotesi Broadcom
WhatsApp per le aziende diventa (anche) un'Api in cloud
Killnet colpisce ancora, hacker russi sui siti di Csm e ministeri
Non solo ransomware: l’estorsione viaggia con il phishing
La trasformazione digitale rallenta, ma non dovrebbe farlo
Gli antivirus di Kaspersky sono sicuri? Un audit dice di sì
Chi siamo
Contatti
Privacy
Informativa Cookie
News
Focus
Eccellenze.it
Strategie di canale
The Innovation Group
Technopolis
indigo logo tig logo
© 2022 The Innovation Group, via Palermo 5, 20121 Milano | P.IVA 06750900968