Il boom dei dati, prima, e quello dell’intelligenza artificiale in anni recenti. La necessità di infrastrutture IT, cioè soprattutto di potenza di calcolo e capacità di storage “non è improvvisamente uscita dal cilindro, se ne parlava già all’inizio degli anni Duemila. Si parlava di quantum computing, poi si è smesso di parlarne e oggi la prospettiva di questa tecnologia è spostata un po’ più avanti. Già nei primi anni Duemila, inoltre, si parlava di AI, già esistevano algoritmi rudimentali per la gestione dei sistemi con capacità di autoapprendimento”. A ripercorrere velocemente, con queste parole, la storia del computing è Stefano Mozzato, vicepresidente marketing Emea di Vertiv, un’azienda che – occupandosi di sistemi per la gestione termica ed energetica dei data center, e dei relativi servizi – ha un ottimo punto di osservazione su questo percorso.
Ma se di queste esigenze si parlava già vent’anni fa, oggi non si discute più di Cpu, server e hard disk. Le Gpu, le Graphic Processing Unit, sono diventate il simbolo della trasformazione dei data center, del loro potenziamento per l’intelligenza artificiale, anche se naturalmente questa è solo una parte della storia. Accanto alle gigantesche infrastrutture hyperscale, alle “fabbriche dell’AI”, ci sono i data center di medie e piccole dimensioni, quelli che erogano servizi cloud o di colocation e anche quelli on-premise, interni alle aziende.
Vertiv si rivolge a tutti questi segmenti con un’offerta che negli ultimi anni ha puntato su due filoni, soprattutto. Da un lato, sull’efficienza energetica per data center ad alta densità, per esempio attraverso le tecnologie di raffreddamento a liquido. Dall’altro ha scommesso sul format della modularità, sui sistemi integrati che permettono di espandere o anche di avviare un nuovo data center con tempistiche e complessità ridotte. Ne è esempio (per citare una notizia recente) la soluzione modulare prefabbricata di Vertiv con cui, in Norvegia, Polar allestirà il suo primo data center “pronto per l’AI”, totalmente alimentato con energia idroelettrica.
Stefano Mozzato, Vp marketing Emea di Vertiv
La collaborazione con Nvidia
In questo contesto tecnologico e di mercato, per Vertiv è centrale la partnership con Nvidia. Tra i progetti in corso, attualmente le due aziende stanno lavorando a quattro mani sulle infrastrutture di alimentazione per data center a 800 VDC per rack da 1 MW e oltre. Le soluzioni di Vertiv per questi contesti saranno disponibili a partire dal 2026. “Negli accordi con Nvidia siamo sempre una generazione avanti rispetto a quello che viene annunciato”, ha precisato Mozzato, spiegando che nel tempo che intercorre tra l’annuncio e il lancio commerciale le soluzioni vengono testate in contesti reali.
È, invece, già stata presentata un'architettura di riferimento per il raffreddamento e l’alimentazione per la piattaforma Nvidia GB300 NVL72, che l’azienda di Jensen Huang definisce come la propria soluzione più avanzata, una “tecnologia creata per il ragionamento AI”. Anche nell’ambito del supercalcolo ci sono progetti che legano le due aziende e uno di questi è italiano: Colosseum, la piattaforma di High Performance Computing di Domyn (già iGenius) che verrà attivata in una località dell’Italia meridionale, ancora non specificata.
Il tema energetico
Al pari dei produttori di chip e di sistemi di infrastruttura, anche Vertiv è impegnata nella riduzione dell’impatto energetico dei data center. Come spiegato da Andrea Faeti, sales director enteprise accounts Italy di Vertiv, un tema oggetto di studio è sicuramente quello di riuso del calore, per il quale l’intelligenza artificiale non è ostacolo, anzi. In una Gpu raffreddata a liquido l’acqua entra a 40 gradi e viene restituita a 50, temperature che favoriscono l’eventuale recupero e riuso (con uno scambiatore di calore) per scopi di riscaldamento.
In progetti di questo tipo, “la difficoltà è soprattutto fare sistema, coinvolgere interlocutori diversi”, ha detto Faeti. “Grandi capacità di elaborazione consumano grandi quantità di energia, è vero. Ed è un tema che potrebbe essere un freno allo sviluppo dell’AI. Credo però che l’utilizzo dell’energia per le applicazioni di AI e per la gestione dei dati sia un utilizzo a grande valore aggiunto: ogni watt speso ha un grande ritorno. Una lettera cartacea richiede più energia per arrivare al destinatario rispetto a un’email. Certo, alcuni utilizzi dei dati sono abusi, c’è uno spreco non percepito, come quando si apre il rubinetto dell’acqua di casa”.
La "single unit of computing"
Nello scenario mondiale dei data center, complice l’ascesa delle applicazioni di AI generativa negli ultimi tre anni, si è arrivati al “punto di ebollizione”, ha detto Mozzato. “L’AI richiede infrastrutture molto più performanti, con un numero kilowatt per rack che è dieci volte tanto. Si arriva oggi, operativamente, a 124-126 kw per rack, un valore ingestibile con il raffreddamento tradizionale ad aria. Il raffreddamento a liquido cambia completamente il paradigma”.
Come sottolineato dal manager di Vertiv, la trasformazione in atto nei data center hyperscale non è solo questione di grandezza, non basta assembrare migliaia, diecimila Gpu per ottenere una AI factory. A far la differenza sono la progettazione integrata dei sistemi di calcolo e raffreddamento e i servizi di gestione del data center (per cui servono competenze specializzate, e Vertiv può vantarle). “Le fabbriche dell’AI non si improvvisano, tutto viene progettato intorno a quelle diecimila Gpu”, ha detto il vice president. “La necessità del mercato, che Vertiv ha abbracciato da tempo, è quella di realizzare il concetto di single unit of computing, con calcolo e raffreddamento integrati”.
Con le nuove necessità di densità di calcolo e di efficienza, cambiano anche le modalità di progettazione dei data center. “I pilastri portanti dei data center”, ha proseguito Mozzato, “sono ancora gli Ups, le unità di distribuzione, i bus bar, ma devono funzionare in maniera certa e soprattutto si devono integrare in maniera sicura, e questo non è più il lavoro del progettista. Quest'ultimo si occupa del fatto che la realizzazione sia coerente con il progetto”.
Andrea Faeri, sales director enterprise accounts Italy di Vertiv
L’Italia è un mercato vivace
“Il mercato dei data center cresce anche da noi, l’Italia è nel mega trend mondiale”, ha detto Faeti. “Negli ultimi anni il mercato italiano è cresciuto molto per via del tema della sovranità dei dati, che ha portato anche da noi gli investimenti dei grandi hyperscaler del cloud”. L’Italia, ha ammesso il manager di Vertiv, ha ancora un ritardo di un paio di anni dal punto di vista degli investimenti dei player, sia nelle regolamentazioni. Tuttavia, ha rimarcato Faeti, “il mercato è molto vivace e siamo ottimisti sul futuro”.
Nel nostro Paese Vertiv conta tra i quattromila e i cinquemila clienti attivi. “Siamo molto radicati sul territorio con la nostra rete commerciale”, ha aggiunto Faeti, “e questo ci permette di raggiungere anche direttamente le Pmi, oltre ad avere una rete di partner che ci aiuta a farlo. Negli ultimi anni abbiamo dato sempre più importanza al canale di vendita indiretta. Il secondo punto di forza è il fatto di avere una grande struttura service sul territorio, isole comprese, con tecnici diretti, centri di assistenza: questo è importante per chi deve gestire processi critici nel data center o altrove, per esempio in contesti industriali”.