Modelli “pensanti”, un ecosistema di agenti e un’infrastruttura specializzata per implementazioni su larga scala. Google Cloud ha così declinato alla conferenza Next ’25 la propria strategia per sfidare le altre big tech sul fronte caldo degli sviluppi legati all’intelligenza artificiale.
Non ha girato intorno all’argomento Amin Vahdat, vice president and general manager di Ml systems e cloud AI, posizionando la sua azienda come “l’unico major cloud provider che può offrire una piattaforma interamente ottimizzata per l’AI, costruita dalle fondamenta per quella che possiamo definire l’età dell’inferenza, dove l'attenzione si sta spostando dall'addestramento dei modelli all'effettivo utilizzo dei sistemi di intelligenza artificiale per risolvere problemi del mondo reale”.
Dal punto di vista infrastrutturale, la principale novità esibita a Next ’25 riguarda Ironwood, architettura che rappresenta un cambiamento fondamentale nella filosofia di progettazione dei chip. A differenza delle generazioni precedenti, che bilanciavano addestramento e inferenza, Ironwood è stato progettato specificamente per eseguire modelli di intelligenza artificiale complessi dopo essere stati addestrati: “Oggi non è più così importante definire quali dati vengono inseriti nel modello, ma cosa quest’ultimo può fare con i dati dopo essere stato addestrato", ha spiegato Vahdat.
Un momento del Google Cloud Next '25 di Las Vegas
Ogni pod Ironwood contiene oltre novemila chip, ma il vendor ha posto l’accento anche sulla capacità di offrire un'efficienza energetica due volte superiore rispetto alla generazione precedente.
Google sta poi aprendo la propria enorme infrastruttura di rete globale ai clienti aziendali tramite Cloud Wan, un servizio che rende disponibile alle aziende un backbone in fibra ottica lungo due milioni di miglia e utilizzato per i servizi consumer più noti, come YouTube e Gmail. Secondo il vendor, Cloud Wan migliora le prestazioni di rete fino al 40%, riducendo al contempo il costo totale di proprietà della stessa percentuale rispetto alle reti gestite dai clienti. Si tratta di una mossa insolita per un hyperscaler, che essenzialmente trasforma la propria infrastruttura interna in un prodotto.
Dal punto di vista del software, Google ha ampliato la propria famiglia di modelli con la nuova versione Gemini 2.5 Flash, presentata come più economica, ma soprattutto basata su ciò che l'azienda descrive come "capacità di pensiero". A differenza dei tradizionali Llm che generano risposte direttamente, questi "modelli pensanti" scompongono i problemi complessi attraverso un ragionamento multifase e persino l'autoriflessione. L’annuncio segue quello, fatto due settimane fa, di Gemini 2.5 Pro, che però è pensato per casi d'uso ad alta complessità, come la ricerca sui farmaci o la modellazione finanziaria, mentre la nuova variante Flash adatta la profondità di ragionamento in base alla complessità dei prompt per bilanciare prestazioni e costi.
In direzione dell’apertura si colloca la creazione di quello che Google chiama un " ecosistema multi-agente ", un ambiente in cui più sistemi di intelligenza artificiale possono lavorare insieme su diverse piattaforme e fornitori. In questo contesto, si colloca l’Agent Development Kit, che consente agli sviluppatori di creare sistemi multi-agente con meno di cento righe di codice. L'azienda propone, inoltre, un nuovo protocollo aperto chiamato Agent2Agent, che consentirebbe agli agenti AI di diversi fornitori di comunicare tra loro: "Il 2025 sarà un anno di transizione in cui l'intelligenza artificiale generativa passerà dalla risposta a singole domande alla risoluzione di problemi complessi attraverso sistemi con agenti", ha preconizzato Vahdat. Oltre cinquanta partner hanno già aderito al supporto di questo protocollo, tra cui importanti fornitori di software come Salesforce , ServiceNow e Sap, lasciando intendere come sia in corso un potenziale spostamento di questo mondo verso sistemi di intelligenza artificiale interoperabili.
Fra le altre novità di Next ’25, si possono citare gli ampliamenti degli strumenti per i media generativi, con aggiornamenti per Imagen (per la generazione di immagini), Veo (video), Chirp (audio) e l'introduzione di Lyria, un modello di conversione da testo a musica. Una forte iniezione di AI contraddistingue anche l’evoluzione della suite di produttività Workspace, con nuove funzionalità come Help me Analyze in Fogli, che identifica automaticamente informazioni dai dati senza formule esplicite o tabelle pivot, e Audio Overviews in Docs, che crea versioni audio dei documenti di tipo human-like.