11/05/2017 di Redazione

La prima Volta di Nvidia: nuova Gpu per data center

L’azienda ha presentato le schede acceleratrici Tesla V100 basate sulla nuova architettura, che sostituisce Pascal. Si tratta di soluzioni per l’intelligenza artificiale dotate di 5.120 Cuda core attivi, 21,1 miliardi di transistor, 16 GB di memoria Hbm2

immagine.jpg

Forte di risultati trimestrali molto soddisfacenti, Nvidia chiude oggi la propria Gpu Technology Conference nella Silicon Valley. E per concludere in bellezza si è riservata nella giornata di ieri un annuncio di peso. L’azienda ha infatti svelato Tesla V100, scheda grafica acceleratrice per data center e la prima in assoluto basata sulla nuova architettura Volta, di settima generazione. Si tratta di una soluzione pensata appositamente per sostenere carichi di lavoro specifici, come quelli basati sull’intelligenza artificiale (machine learning e deep learning), ed è stata realizzata con processo produttivo a 12 nanometri. La Gpu ha un die size di 815 mm2, presenta 21,1 miliardi di transistor e 5.120 Cuda core attivi, con 16 GB di memoria ad alte prestazioni Hbm2 a 900 GB/s e un’interfaccia aggiornata Nvlink 2.0, che interconnette a 300 GB/s le schede grafiche fra loro e con i processori.

La soluzione tocca i 15 teraflops in caso si calcoli a singola precisione e i 7,5 teraflops con calcoli a doppia precisione. Secondo Nvidia si tratta di un miglioramento di cinque volte rispetto all’architettura Pascal, di precedente generazione, e di ben 15 volte sulla piattaforma Maxwell, presentata due anni fa. Dal punto di vista della gestione del deep learning e delle reti neurali, Nvidia ha dotato i nuovi chip di Tensor Core.

Questi “cervelli”, ben 640, servono per l’apprendimento dei compiti da eseguire e portano la potenza di calcolo nel caso del deep learning a 120 teraflops: l’equivalente delle performance di 100 Cpu. Nutrito il gruppo di partner tecnologici che ha collaborato con Nvidia per le fasi di test e sviluppo, costate circa 3 miliardi di dollari. Nell’elenco figurano fra gli altri Amazon Web Services, Baidu, Facebook, Google e Microsoft.

Le nuove Gpu sono alla base del supercomputer Dgx-1, che presenta ben otto chip V100, per un totale di 4.960 Cuda core che portano la potenza di calcolo complessiva a 960 teraflops. Secondo il fondatore e Ceo di Nvidia, Jensen Huang, il cervellone (pensato appositamente per l’elaborazione di algoritmi di intelligenza artificiale) è abbastanza potente da rimpiazzare 400 server ed è in grado di risolvere in poche ore task che prima richiedevano una settimana. Il prezzo? 149mila dollari.

 

ARTICOLI CORRELATI