26/11/2024 di Valentina Bernocco

Densità ed energia: così i data center diventano “fabbriche di AI"

I sistemi di alimentazione e raffreddamento sono parte integrante della rivoluzione tecnologica in corso, innescata dall’AI. La visione di Vertiv.

(Il supercomputer Leonardo di Cineca)

(Il supercomputer Leonardo di Cineca)

“Il mondo dipende dai dati e tutto ciò che facciamo crea dati, in un modo o nell’altro questo pone delle sfide”. Non è casuale l’osservazione di Karsten Winther, presidente Emea di Vertiv, fatta ai giornalisti arrivati da tutta Europa, e oltre, per visitare il Customer Experience Center dell’azienda a Castel Guelfo, nelle vicinanze di Bologna. Una sede dedicata all’esposizione e al testing di tutto ciò che riguarda i sistemi di alimentazione, come gli Ups (Uninterruptible Power Supply), mentre a Tognana, nei dintorni di Padova, sorge l’analogo centro dedicato ai sistemi di raffreddamento.

L’affermazione del presidente Emea non è casuale perché l’offerta di dispositivi e servizi di Vertiv negli ultimi anni si è evoluta parallelamente alla trasformazione dei data center, sull’onda (prima) del boom dei dati e delle migrazione in cloud e poi della corsa all’adozione dell’intelligenza artificiale. I data center diventano sempre più “densi”, cioè a parità di metro quadro o di rack la capacità di calcolo aumenta. E dunque aumentano anche i consumi di energia e il calore prodotto, ma allo stesso tempo si assiste a un progresso tecnologico (dai chip al software) che tende all’efficienza e, quindi, a contenere o contrastare l’impatto ambientale e i costi energetici. Il famigerato Pue, l’indice di Power Usage Effectiveness, rimane un parametro essenziale per tutti vendor della filiera e per gli operatori di data center, ma non può più essere l’unico metro di valutazione dell’efficienza. 

Rispetto a un paio di anni fa, Vertiv può ora vantare un’offerta che copre tutto il “power train”, cioè la catena dell’alimentazione, dalla rete elettrica ai chip che fanno funzionare un data center, includendo anche le interazioni con le fonti di energia alternative e i sistemi di controllo e gestione. Similmente, l’azienda copre anche l’intera catena della gestione termica, dal raffreddamento dei rack alla raccolta e all’espulsione del calore. “Vertiv è molto riconosciuta nel mondo dei data center, ma ora lo è anche in quello dell’intelligenza artificiale”, ha proseguito Winther. "Ovunque andiamo, siamo toccati dall’AI, consapevoli o meno. Penso siamo tutti d’accordo sul fatto che l’AI sia destinata a restare”. 

Karsten Winther, presidente Emea di Vertiv

Karsten Winther, presidente Emea di Vertiv

Focus sull’innovazione

“L’efficienza è un aspetto chiave, dobbiamo ridurre lo spreco di energia in ciascun sistema", ha dichiarato Giovanni Zanei, AC power global offering & Emea business leader Vertiv. “Oggi si punta al 99% di efficienza, cercando di ridurre al minimo il Pue del data center e di mantenere al contempo la massima availability”.

Nel customer center di Bologna, così come in altre location, Vertiv sta investendo per mettere a punto nuovi e più sofisticati test, anche con l’uso di camere climatiche e  tavole vibranti. L’azienda coltiva anche i rapporti con le università, sia per il reclutamento di talenti sia per lo sviluppo di innovazioni. “Dobbiamo cominciare a innovare su vari filoni per star dietro agli sviluppi del’AI e anche per consentire a diverse fonti di energia di connettersi ai convertitori”, ha ribadito Zanei. In sostanza, i sistemi di alimentazione come gli Ups non sono più solo il "paracadute" del data center in caso di guasti o interruzioni sulla rete elettrica, ma diventano un abilitatore per strategie di gestione energetica più complesse, che includano anche le rinnovabili.

Giovanni Zanei, AC power global offering & Emea business leader Vertiv

Giovanni Zanei, AC power global offering & Emea business leader Vertiv

Lo scenario italiano

Dal punto di vista della domanda di apparati per data center, il mercato italiano è in discreto fermento. “In Italia si stanno costruendo molti più data center, più numerosi e più grandi rispetto al passato”, ha esordito Andrea Faeti, sales director enterprise accounts di Vertiv per l’Italia. “Con l’arrivo dei grandi hyperscaler stiamo osservando quello che si era già visto negli ultimi dieci anni in Paesi come Germania e Francia. Stiamo assistendo alla migrazione dal tipico data center enterprise a un data center centralizzato”.

Per quanto riguarda la spinta verso l’AI, Faeti ha ammesso che nelle aziende l’implementazione “non è così immediata”, a causa di ostacoli che riguardano soprattutto le competenze e la gestione dei dati. Non mancano, tuttavia, iniziative anche di eccellenza, come nel tecnopolo di Bologna l’attività di Cineca affidata al supercomputer Leonardo, che opera alla giusta temperatura e con garanzie di continuità anche grazie alla tecnologia di Vertiv.

“I diversi segmenti di mercato hanno necessità differenti”, ha proseguito Faeti. “Gli hyperscaler sono aziende molto attente all’update tecnologico, hanno bisogno di partner che forniscano specifiche tecnologie e anche soluzioni customizzate, e che li sappiano seguire in deployment molto impegnativi. Diversa è la situazione nel mercato enterprise, dove si cerca di più un partner che sappia offrire tutte le tecnologie all’interno di un sistema integrato per alimentazione, raffreddamento e infrastruttura, e, ancora una volta, soluzioni customizzate sul cliente”.

Andrea Faeti, sales director enterprise accounts Italia di Vertiv

Andrea Faeti, sales director enterprise accounts Italia di Vertiv

La collaborazione con Nvidia

Per costruire le “fabbriche dell’AI” è anche necessaria, come mai in passato, una collaborazione tra vendor, da cui nascano integrazioni tecnologiche, strategie e standard condivisi. Per Vertiv è particolarmente significativa l’alleanza con Nvidia, azienda che negli ultimi due anni ha beneficiato (forse più di chiunque altra) del boom di domanda di semiconduttori e software per l’AI.

“Ho la sensazione che siamo appena agli inizi e che vedremo un’adozione molto, molto maggiore”, ha detto Carlo Ruiz, vicepresidente enterprise solutions and operations Emea di Nvidia. “Nel campo dei modelli fondativi, non vedo una fine: continueranno a progredire e a migliorare insieme alla quantità di dati usati. E vedremo anche foundational model settoriali”. Ruiz ha citato un dato come esempio degli estremi miglioramenti di prestazioni ed efficienza ottenuti da Nvidia: in otto anni la capacità di calcolo delle Gpu è aumentata di mille volte, dai 19 TFlops dell’architettura Pascal del 2019 ai 20.000 TFlops di Blackwell, lanciata quest’anno. 

scopri altri contenuti su

ARTICOLI CORRELATI