02/09/2025 di redazione

Google porta Gemini negli ambienti on-premise e offline

Gemini 2.5 Flash e di Gemini Pro sono, ora, fruibili anche nell’appliance air-gapped di Google Distributed Cloud.

L’intelligenza artificiale generativa, con i suoi Large Language Model e i chatbot costruiti su di essi, vive soprattutto in cloud. Ma non solo. I modelli della serie Gemini debuttano su Google Distributed Cloud, soluzione software e hardware gestita per data center di proprietà e siti edge, nata per soddisfare esigenze di prossimità, latenza e compliance. Esigenze importanti soprattutto nei settori regolamentati e per determinate tipologie di aziende, come governi, enti pubblici centrali e locali, banche.

L’impegno a portare Gemini negli ambienti on-premise era stato annunciato da Google lo scorso aprile, e oggi si concretizza con la disponibilità generale di Gemini 2.5 Flash e di Gemini 2.5 Pro sull’appliance completamente disconnessa ed air-gapped di Google Distributed Cloud. Inoltre debutta l’anteprima pubblica di Gemini su Google Distributed Cloud. 

“Per anni”, ha scritto Vithal Shirodkar, vicepresidente e general manager di Google Distributed Cloud, “aziende e governi sottoposti ai più stringenti requisiti di sicurezza e sovranità dei dati hanno affrontato una scelta difficile: adottare la moderna intelligenza artificiale oppure proteggere i loro dati. Oggi questo compromesso giunge al termine”.

Accanto all’esordio dei modelli di Gemini, Google Distributed Cloud propone anche i modelli task-specifici di Vertex AI (ottimizzati per attività come le traduzioni testuali, il riconoscimento ottico delle immagini, lo speech-to-text e altro) e quelli open-source della serie Gemma. Inoltre, tramite cluster Kubernetes o macchine virtuali gestiti, è anche possibile distribuire altri modelli AI open-source o completamente customizzati. A ciò si affiancano i servizi di piattaforma di Vertex AI, tra cui un managed serving engine (con funzionalità di runtime, scaling, monitoraggio gestiti), agenti pre-costruiti, fra cui quello di Google Agentspace per la ricerca tra i dati.

L’infrastruttura di calcolo messa a disposizione è basata su acceleratori Gpu di Nvidia delle serie Hopper (H200) e Blackwell (B200 e B300) e viene gestita con funzioni di load balancing automatizzato e di auto-scaling. 

scopri altri contenuti su

ARTICOLI CORRELATI