Continuano gli sforzi “pro sovranità” dei grandi fornitori di tecnologia statunitensi con Microsoft che ha annunciato un’evoluzione significativa di Azure Local. La soluzione che porta le funzionalità, la gestione e i servizi di Azure direttamente all'interno del datacenter locale dei clienti o in edge, ora può supportare deployment composti da migliaia di server all’interno di un unico ambiente sovrano, rispondendo alla necessità delle aziende europee di bilanciare innovazione e controllo.
In termini concreti, Azure Local consente di eseguire infrastrutture cloud-consistent su hardware di proprietà delle aziende clienti, in modo che mantengano il pieno controllo su dati, operazioni e dipendenze. Il sistema è progettato per funzionare in ambienti connessi, intermittenti o completamente disconnessi, garantendo continuità operativa anche in assenza di connessione al cloud pubblico.
Scalabilità e resilienza per ambienti mission-critical
L’estensione della scalabilità fino a migliaia di server rappresenta uno dei punti più rilevanti dell’evoluzione della piattaforma. Le infrastrutture sovrane non devono solo supportare workload sempre più grandi, ma anche garantire resilienza e continuità operativa su larga scala.
Azure Local introduce domini di fault più estesi e pool infrastrutturali avanzati, progettati per evitare che guasti hardware possano tradursi in interruzioni di servizio. Questo approccio è particolarmente rilevante per ambienti come telecomunicazioni, utilities e pubblica amministrazione, dove la disponibilità dei sistemi è un requisito imprescindibile.
La scalabilità consente inoltre di espandere le infrastrutture in modo progressivo, senza dover riprogettare l’architettura, un elemento critico per organizzazioni in crescita o soggette a picchi di domanda.
AI e dati sensibili restano “in casa”
Uno degli aspetti più strategici dell’evoluzione riguarda il supporto a workload AI e data-intensive direttamente all’interno dell’ambiente sovrano. Grazie al supporto per infrastrutture GPU ad alte prestazioni, le organizzazioni possono eseguire modelli di inferenza e analytics avanzati senza spostare dati sensibili fuori dal proprio perimetro.
L’aumento della scala apre anche nuove possibilità in termini di distribuzione dei workload. Azure Local consente di coprire un ampio spettro di scenari, dai grandi datacenter sovrani fino agli ambienti edge, dove le applicazioni richiedono bassa latenza e prossimità al dato.
Un esempio significativo arriva dall’Italia, con FiberCop che utilizza la piattaforma per portare servizi cloud e AI direttamente nelle location edge distribuite sul territorio. Analogamente, realtà come AT&T e Kadaster stanno adottando Azure Local per gestire infrastrutture critiche e dati sensibili, mantenendo il controllo operativo pur beneficiando della coerenza del modello cloud.
Un ecosistema tecnologico completo
La piattaforma si basa su un ecosistema di partner hardware e software che include vendor come Dell Technologies, HPE, Lenovo e NetApp consentendo alle organizzazioni di integrare infrastrutture esistenti e proteggere gli investimenti già effettuati.
A livello di silicio, la piattaforma utilizza processori Intel Xeon 6, progettati per supportare workload ad alta densità e applicazioni AI, grazie anche a funzionalità di accelerazione integrate. Questo consente di eseguire carichi di lavoro avanzati senza dover introdurre infrastrutture separate, semplificando la gestione e ottimizzando i costi.
Resta da verificare il nodo della disponibilità in caso di interruzione del servizio a livello globale, ma una soluzione interamente on prem o distributa anche su edge su HW di proprietà ispira sicuramente più fiducia di uno stack gestito interamente dall’esterno, con qualcuno che ha la facoltà di spegnerlo da un momento all’altro in caso di gravi problemi geopolitici.