La sostenibilità dei data center è tutt'altro che un tema logoro: se ne parla da anni, tra promesse e obiettivi di riduzione dell'impronta carbonica, ma con poche certezze. La tecnologia dei chip fa progressi verso l'efficienza così come aumenta il ricorso alle fonti rinnovabili, ma questo basta per immaginare un mercato data center sostenibile negli anni a venire, considerando anche il boom dell'intelligenza artificiale? La francese Ovhcloud ha di certo voce in capitolo: non solo è uno dei punti di riferimento per le aziende che preferiscano un operatore europeo, ma fin dal 2022 è impegnata nella riduzione dei propri impatti diretti e l’anno seguente ha sviluppato una tecnologia proprietaria di raffreddamento ad acqua (liquid cooling). Come vede Ovhcloud la sfida della sostenibilità? Lo abbiamo chiesto a Gregory Lebourg, global environmental director della società francese.
Com'è che la sostenibilità è diventata un tema scottante per il settore dei data center?
Il tema non è nuovo. Nel nostro settore abbiamo sperimentato una crescita stabile in termini di consumo di energia, direi che è stato così dalla nascita del mercato dei data center. Quanto più ci spostiamo in cloud e il mondo diventa digitalizzato, tanto più il fabbisogno energetico aumenterà. Ma negli anni è stato possibile contenere l’incremento dei consumi grazie al fatto che i produttori di chip hanno investito molto ricerca sviluppo per inseguire la legge di Moore e rendere i componenti sempre più efficienti. In poche parole, i server di oggi necessitano di meno energia per eseguire più calcoli. Come fornitori di data center, anche noi di Ovhcloud siamo stati sempre più creativi ed efficienti nel modo in cui facciamo funzionare le nostre piattaforme. Abbiamo introdotto diverse tecnologie per il raffreddamento e questo è il punto più importante quando si parla di consumo energetico del data center. In secondo luogo abbiamo fatto molti progressi nel modo in cui orchestriamo l'infrastruttura.
E oggi che cosa è cambiato?
Oggi vediamo una gestione massiccia di piattaforme eseguite su Gpu: componenti più energivore rispetto alle Cpu tradizionalmente usate nei data center. Le Gpu non sono una novità per il mercato, essendo state introdotte molto tempo fa per diverse finalità, per esempio il gaming e il calcolo parallelo. Quindi sappiamo come integrarle nella nostra piattaforma e come alimentarle efficientemente e raffreddarle. Il grande cambiamento attuale nel mercato è l'adozione massiccia delle Gpu: si è creata una sorta di bolla. Molti fornitori stanno creando infrastrutture dedicate all'addestramento dei Large Language Model (LLM) ed è questo che alimenta la domanda di energia odierna.
Gregory Lebourg, global environmental director di Ovhcloud
Come vedete il futuro?
Con il passaggio da una fase in cui domina l’addestramento degli LLM a una fase in cui prevarranno le attività di inferenza, il consumo di energia si manterrà elevato ma sarà più distribuito e più vicino all’utente finale. In pratica, invece di avere grandi data center che consumano molta energia con picchi di domanda per addestrare i modelli, ci sarà un consumo di elettricità extra più distribuito su scala globale e spalmato nel tempo.
Secondo uno studio pubblicato dalla International Energy Agency all'inizio del 2024, il settore data center ha rappresentato il 2% dei consumi di elettricità mondiali nel 2022. Siamo nell’ordine dei 460 terawattora, valore comparabile a quello del fabbisogno di un Paese come la Francia. Secondo le stime contenute in questo studio, il fabbisogno di elettricità dei data center su scala mondiale probabilmente arriverà al raddoppio nel 2026 rispetto ai livelli di quattro anni prima. Ma a distanza di qualche mese, lo scorso ottobre, la stessa International Energy Agency ha rivisto queste previsioni e stima ora che il raddoppio sarà entro il 2030, dunque con tempi più lunghi, e forse non sarà un pieno raddoppio ma un incremento di circa 400 terawattora. Il boom dell’AI potrebbe essere responsabile di tale incremento in misura del 50%.
Ciò che intendo dire è che non abbiamo la sfera di cristallo e forse è troppo presto per tracciare delle traiettorie. Sappiamo che gli impatti dell’AI sulla domanda di energia saranno significativi, ma in che misura lo saranno è tutto ancora da capire. Dipenderà anche dal tipo di modelli che saranno prevalentemente sviluppati e addestrati: modelli linguistici di grandi dimensioni o più piccoli e specializzati, più efficienti in termini di consumi energetici?
Che ruolo potrà avere l’Europa nello sviluppo dell’intelligenza artificiale “sostenibile”?
Dobbiamo sicuramente porci la domanda, collegandola anche al tema della sovranità digitale. Dovremmo lasciare che siano gli Stati Uniti e la Cina a guidare lo sviluppo dei Large Language Model? O dovremmo, per ragioni di sovranità, avere i nostri sviluppati in Europa? Uno dei temi sul piatto è anche quello dei bias, che dipendono dal tipo di algoritmo utilizzato e anche dai dati con cui è stato alimentato. Penso si possa dire che dovremmo avere degli LLM addestrati in Europa, basati sui nostri data set, che rispecchino i nostri valori. Possiamo far parte della competizione e i player non ci mancano, per esempio penso a Mistral, i cui algoritmi sono di livello comparabile a quelli di OpenAI e Deepseek. E arriviamo alla seconda domanda: questi modelli possiamo addestrarli noi, in data center collocati in Europa, meglio di quanto non si farebbe negli Stati Uniti o in Cina? Di certo potremmo farlo su un’infrastruttura a basse emissioni di carbonio, grazie al peculiare mix energetico di cui oggi l’Europa dispone, anche se con differenze tra un Paese e l’altro. Quindi sì, sia per ragioni di sovranità sia di sostenibilità, l’Europa è il posto giusto per sviluppare modelli di AI.
La sostenibilità è un selling point nel mercato dei servizi di data center?
Negli ultimi anni ho visto aumentare, tra i clienti, la richiesta di informazioni sulla sostenibilità. Queste informazioni vengono discusse anche in fase di prevendita, e molti clienti chiedono di considerare non solo le emissioni di carbonio ma anche gli altri criteri, perché l’impatto ambientale è multifattoriale. Nel nostro concetto di sostenibilità non c’è soltanto la riduzione dell’impronta carbonica: devono essere considerati anche altri fattori, come l’utilizzo delle risorse idriche e minerarie, necessarie anche nell’industria dei semiconduttori, e come il consumo di suolo e sottosuolo. Fin dai suoi inizi, 25 anni fa, Ovhcloud ha deciso di non costruire nuovi data center ma di trasformare edifici esistenti, e per noi è facile farlo grazie alla tecnologia di water cooling proprietaria, perché non dobbiamo preoccuparci della circolazione dell’aria.
Quali sono e saranno le vostre strategie per la sostenibilità?
Il nostro scopo non è addestrare Large Language Model. Vorremmo, invece, replicare quello che è stato fatto con successo all’inizio degli anni Duemila con il boom di Internet: avere un ecosistema open source di modelli specializzati, più piccoli e meno energivori rispetto agli LLM. Vorremmo ospitare questo ecosistema sulle nostre piattaforme e orchestrare l’accesso ai modelli, indirizzando le richieste dei clienti su quelli più adatti per ciascun contesto e caso d’uso, come generazione di gesti, riconoscimento delle immagini e via dicendo.
Per noi cloud sostenibile significa avere un data center che fa buon uso dell’elettricità consumata. Bisogna valutare il PUE, il Power Usage Effectiveness, l’efficienza dei server ma anche quella dei sistemi di raffreddamento. È molto importante che il raffreddamento ad acqua avvenga in circuito chiuso, e da oltre vent’anni abbiamo scelto questa tecnologia. Abbiamo imboccato questa strada, indipendentemente dall’intelligenza artificiale, ritenendo che fosse la migliore in termini di impatto ambientale. Oggi ci sono buone ragioni affinché tutto il settore dei data center segua questa strada, perché abbiamo raggiunto un limite nella capacità di raffreddamento.
Per dirla alla Martin Luther King, ho un sogno: che un giorno i costruttori di chip, come Nvidia e Amd, progettino e ci forniscano componenti raffreddati ad acqua. Il mio sogno è che la sostenibilità venga inserita all’inizio della catena e che gli operatori di data center come Ovhcloud e i produttori di componenti abbiano una roadmap comune. Siamo membri attivi di Ocp, l’Open Compute Project, e spingiamo fortemente per la standardizzazione della tecnologia di raffreddamento ad acqua direct-to-chip: crediamo di aver dimostrato che essa è il modo migliore per ottenere un cloud sostenibile e, di fronte al boom dell’AI, crediamo sia giunta l’ora di agire.