“Le infrastrutture It sono sempre più difficili da controllare, ma le aziende devono per forza di cose essere responsabili della loro gestione: come si governa la complessità?”. Suona quasi come una resa di fronte alla realtà la dichiarazione di Neil Rickard, vp analyst di Gartner, fatta in apertura dei lavori della conferenza “It Infrastructure, Operations and Cloud Strategies” organizzata dalla società di ricerca a Francoforte. La trasformazione digitale ha complicato sensibilmente la progettazione delle architetture tecnologiche, che oggi coprono dal data center all’edge, dove milioni (e presto saranno miliardi) di oggetti connessi scambiano ininterrottamente dati con il cuore della rete, con applicazioni enterprise e con molteplici piattaforme cloud. Uno scenario che ha spinto gli analisti di Gartner a parlare di “infrastruttura senza confini”, in grado di abilitare possibilità mai viste. Ma, per riprendere il quesito posto da Rickard, l’innovazione (e, di conseguenza, la complessità) va obbligatoriamente governata.

Secondo la società di ricerca, nel breve periodo è fondamentale “mettere le mani nel caos”, capendo quali sistemi legacy si possono cambiare e quali invece non possono essere toccati. Ma la prospettiva di lungo termine porta con sé un nuovo paradigma: “Le aziende dovranno prima scegliere quali prodotti e applicazioni sviluppare e poi decidere con quali componenti tecnologiche. L’obiettivo delle organizzazioni è quello di diventare product-driven”, hanno spiegato gli analisti Philip Dawson e Charley Rich.

Entro il 2025, infatti, il 70 per cento delle aziende che non adotteranno un orientamento ai servizi (o prodotti) perderà clienti e non potrà supportare in modo adeguato il proprio business. “Cloud pubblici, pratiche DevOps, framework aperti, micro e miniservizi, container, logiche serverless, Api: questo è un periodo d’oro per gli sviluppatori”, ha aggiunto Rich. “Sembra quasi di vivere in un negozio di caramelle. Ma, se l’infrastruttura e le operations non riescono a integrarsi in questo scenario, quello che a prima vista sembra un paradiso può trasformarsi velocemente in un inferno. Inoltre, le organizzazioni devono concentrarsi sulla creazione di applicazioni modulari, intelligenti e connesse”.

Questa nuova generazione di software aprirà definitivamente la strada a due paradigmi che Gartner definisce rivoluzionari: le esperienze immersive e l’Internet delle cose. Nel primo caso verranno rimosse le barriere fra persone e oggetti digitali e la realtà mista diventerà una parte sempre più consistente della vita delle aziende. Entro il 2021, prevede Gartner, il 25 per cento delle grandi organizzazioni nei mercati più maturi avrà lanciato progetti pilota o avrà già implementato soluzioni di questo genere. Nel 2017 il dato era fermo all’un per cento.

 

La complessità di oggi secondo Gartner

 

L’IoT obbligherà invece le imprese a cambiare radicalmente il proprio modo di vedere le componenti infrastrutturali: l’ombelico del mondo non sarà più il data center, ma il cloud. Non a caso, come ha sottolineato in modo provocatorio Daniel Bowers, “il centro dati è morto. Nel 2025 l’80 dell’enterprise avrà spento le proprie sale macchine e il 76 per cento dei carichi di lavoro sarà su cloud pubblico o as-a-Service”.

 

La nuvola non è garanzia di semplicità

Ma adottare il cloud in modo massiccio non significa risolvere i numerosi problemi evidenziati da Gartner. Anzi, la nuvola potrebbe introdurre nell’ambiente ulteriori complessità a livello di gestione e di visibilità delle risorse. “Come andare avanti, quindi, se non si riesce neanche a tenere il passo dell’innovazione?”, si è chiesto Scott Sneddon, senior director, Sdn & virtualisation di Juniper Networks. “L’approccio al cloud si è inevitabilmente trasformato in una strada verso il multi-cloud: ma questo non significa che le imprese abbiano la strategia corretta”.

Non c’è una soluzione univoca, ma le organizzazioni, secondo Sneddon, dovrebbero tenere bene a mente due principi: la sicurezza e l’automazione. “Ridurre la complessità significa intervenire sull’infrastruttura a livello fisico e logico, utilizzando sia un numero inferiore di dispositivi di rete sia ricorrendo al software per garantirsi la giusta orchestrazione. In questo modo è possibile disporre di architetture sicure (con meno componenti da gestire, ndr), automatizzate e anche replicabili nelle varie sedi”, ha spiegato Sneddon a ictBusiness.it.

Il modello, ricorda il manager, replica quello che è stato sostanzialmente ideato dai grandi hyperscaler come Google, dove un solo ingegnere di rete ha la responsabilità di decine di migliaia di dispositivi praticamente identici fra loro: “Una delle chiavi è la standardizzazione”. Juniper, dal canto suo, offre la piattaforma di networking definito dal software Contrail per consentire ai clienti di eseguire qualsiasi carico di lavoro su ogni nuvola e per ogni tipologia di deployment. “L’obiettivo è creare un’infrastruttura coesa e unica anche in ambienti multi-cloud, con il perfetto controllo in ogni direzione: verticale, quindi dalla connessione alla visibilità, e orizzontale, dal data center alle filiali”.

 

Scott Sneddon, senior director, Sdn & virtualisation di Juniper Networks

 

Come ulteriori punti di forza rispetto all’offerta dei concorrenti, Juniper cita l’interoperabilità e l’apertura delle proprie soluzioni. Larga parte del codice di Contrail (ma non solo) proviene dalla comunità open source e questo approccio ben si sposa con la volontà dell’azienda di creare nuovi standard condivisi nel networking, oltre al rafforzamento della sicurezza.

“L’open source non è più o meno sicuro di natura, ma sono convinto che possa creare nuove opportunità per la gestione dell’infrastruttura che porteranno all’adozione di pratiche di sicurezza migliori”, ha aggiunto Sneddon. Ma l’apertura non esclude la personalizzazione: Juniper offre infatti anche prodotti dotati di chip custom (Asic progettati in casa) per diversi compiti. Infine, un altro ingrediente messo sul tavolo dal vendor è l’intelligenza artificiale. Un tema rafforzato di recente con l’acquisizione di Mist Systems.

“Penso sia pronta per casi d’uso specifici”, ha sottolineato il manager. “Per esempio, in fase di analisi dei dati generati dalla rete. Disponiamo di un motore di analytics, derivato dall’acquisizione di AppFormix, che permette di ottenere insight su cui poi prendere decisioni. L’intelligenza artificiale non è ancora sufficientemente matura per un uso trasversale, ma gli strumenti stanno migliorando a colpo d’occhio e credo che nei prossimi mesi assisteremo a cambiamenti significativi”.