28/03/2018 di Redazione

Schede ingombranti e auto smart: Nvidia racconta i suoi progetti

L’azienda ha lanciato le Gpu Quadro Gv100 per i professionisti della grafica e la seconda generazione di sistemi Dgx: un’appliance da 160 chili che integra sedici schede Tesla V100 con 32 GB di memoria Hbm2 ciascuna. Svelati anche un nuovo progetto di ric

immagine.jpg

Nvidia si è messa in mostra alla Gpu Technology Conference di San Jose. L’azienda ha mostrato tutte le proprie novità tecnologiche che arriveranno nei prossimi mesi e, a fianco ovviamente delle schede grafiche, a brillare sono l’intelligenza artificiale e le soluzioni dedicate esplicitamente all’automotive. Procediamo con ordine. Innanzitutto, Nvidia ha svelato la terza generazione di schede basate su Gpu Volta: si tratta di Quadro Gv100, che arriverà sul mercato dopo Tesla V100 e Titan V. Un prodotto dedicato ai professionisti della grafica, che presenta un “motore” da 5.120 Cuda core, 336 unità texture e 640 Tensore core per mettere a disposizione fino a 118 Tflops complessivi di potenza di calcolo. La memoria Hbm2 Ecc è da ben 32 GB, mentre il bus a 4.096 bit offre un’ampiezza di banda di 870 GB/s. Tramite interfaccia Nvlink2, la scheda può essere unita a un’altra Gpu gemella ottenendo così un sistema con prestazioni e specifiche raddoppiate. Il costo? Circa novemila dollari.

Il secondo prodotto di spessore presentato da Nvidia ieri è la seconda generazione del sistema Dgx, pensato per accelerare l’elaborazione nel campo dell’intelligenza artificiale. Descritta come “la Gpu più grande del mondo” (e anche pesante, per via dei suoi 160 chili di peso) è una vera e propria appliance che sotto la scocca nasconde sedici schede Tesla V100 con 32 GB di memoria Hbm2 ciascuna: numeri doppi rispetto alla Dgx-1, che le permettono di raggiungere una potenza di calcolo di 2 Tflops.

La Ram complessiva tocca quota 1,5 TB, mentre la connettività è garantita da tecnologia Infiniband o da otto porte 100 Gbe (numero massimo). Sono presenti anche due Cpu Xeon Platinum e una “discreta” quantità di storage: 30 TB espandibili fino a 60 TB. Progettata esplicitamente per il settore scientifico, la Dgx-2 è la prima in assoluto ad avvalersi dell’interconnessione Nvswitch, in grado di collegare fino a 16 Gpu V100 sotto una singola topologia. Il dispositivo, prodotto da Tsmc, integra oltre due miliardi di transistor e supporta un bandwidth aggregato di 960 GB/s.

 

La nuova Nvidia Quadro Gv100

 

Sfruttando le funzionalità di coerenza della tecnologia Nvlink, lo switch permette a un’applicazione in esecuzione su più schede grafiche di considerare la memoria Hbm2 come un unico spazio comune, arrivando a 512 GB complessivi per un throughput totale di 14,4 TB/s. Ed è questo il motivo per cui Jen-Hsun Huang, Ceo di Nvidia, ha definito Dgx-2 la Gpu “più grande del mondo”. E, forse, anche la più cara, in quanto verrà proposta al prezzo di 400mila dollari.

 

Automotive in pole position. Più spazio alle collaborazioni

Durante l’evento di San Jose, Nvidia ha svelato anche Drive Constellation, una soluzione in cloud dedicata ai partner per il testing di veicoli a guida autonoma, grazie a complesse e realistiche simulazioni offerte dalla realtà virtuale. Drive Constellation si basa su due server differenti: il primo esegue il software Drive Sim per simulare i sensori e i componenti intelligenti della vettura, mentre la seconda integra la piattaforma Drive Pegasus. Presentata nel 2017, è l’erede di Drive Px e permette alle automobili di raggiungere il massimo livello di autonomia possibile (il quinto).

Consta di system-on-chip Xavier, di una scheda acceleratrice Volta e di due Gpu di nuova generazione, che garantiscono fino a 320mila miliardi di operazioni di deep learning al secondo (Tops). Più avanti sarà sostituita da Drive Orin, che fondamentalmente unisce due Pegasus in un package dalle dimensioni ridotte.

Il software Drive Sim può ricostruire scenari e ambientazioni così realistiche da permettere teoricamente a una persona di guidare una vettura standosene tranquillamente seduta sul divano di casa. La soluzione, comunque, è ancora ferma a un primo stadio di analisi e ricerca ed è obbligatorio frenare gli entusiasmi.

 

Pure Storage Airi

 

Infine, la Gpu Technology Conference ha portato alla luce anche una partnership tra Nvidia e Pure Storage, che si è concretizzata in Airi. Si tratta di una piattaforma storage all-flash pre-integrata e pensata in modo specifico per l’intelligenza artificiale. L’appliance è basata su Flashblade di Pure Storage, e su quattro Dgx-1. I sistemi sono interconnessi con gli switch Arista 100 GbE, che supportano la tecnologia GpuDirect Rdma per migliorare il calcolo distribuito.

Airi è dotata inoltre di software Cloud Deep Learning Stack sviluppato da Nvidia e di Airi Scaling Toolkit, per consentire ai data scientist di avviare e scalare progetti nel campo dell’intelligenza artificiale in poche ore invece che in settimane. La novità di Pure storage è già disponibile tramite partner selezionati dell’azienda.

 

ARTICOLI CORRELATI