Intelligenza artificiale e high performance computing si accomodano uno vicino all’altro nella “nuova” piattaforma server di Nvidia. L’azienda ha svelato ufficialmente Hgx-2, una soluzione che sfrutta elementi di calcolo differenti per garantire un maggiore livello di flessibilità a seconda dei carichi di lavoro: componenti ad alta potenza per l’ambito scientifico e ad alta velocità per gli algoritmi di intelligenza artificiale. La piattaforma è alla base dell’appliance Dgx-2 presentata da Nvidia lo scorso marzo ed è quindi obbligatorio utilizzare le virgolette quando si parla di novità. Complessivamente, Hgx-2 è capace di erogare fino a due petaflops grazie al lavoro congiunto di 16 schede acceleratrici Tesla V100: le unità vengono viste come un’unica grande Gpu grazie all’interconnessione garantita da 12 Nswitch, la vera novità tecnologica sviluppata quest’anno dal vendor.

Lo scopo di Hgx-2 è quello di funzionare come elemento fondante per la progettazione di schede server personalizzabili anche da aziende terze. Non è un caso quindi che Nvidia abbia già annunciato la collaborazione di quattro produttori (Lenovo, Qct, Supermicro e Wiwynn) e di altrettanti original design manufacturer (Foxconn, Inventec, Quanta e Wistron) per il lancio sul mercato di soluzioni basate su questa piattaforma, in particolare per il mondo dei cloud data center.

Nvidia ha snocciolato alcune cifre sulle capacità di Hgx-2 nel campo dell’intelligenza artificiale. I dati del benchmark ResNet-50 hanno rilevato come la scheda sia riuscita a elaborare 15.500 immagini al secondo durante l’allenamento di un modello di Ai. In questo modo, Hgx-2 potrebbe sostituire il lavoro di trecento server dotati soltanto di Cpu. Complessivamente, la piattaforma offre 512 GB di memoria Hbm2 per un throughput massimo di 14,4 TB/s.