27/10/2017 di Redazione

Nuove istanze Gpu per Amazon Web Services con Nvidia Tesla V100

Disponibili anche nella regione Eu West (Ireland) le P3, ad oggi il prodotto più potente di Amazon Web Services (e di tutto il cloud) grazie alle schede acceleratrici di Nvidia, ai processori Intel Xeon E5 e a 488 GB di Dram.

immagine.jpg

Amazon Web Services alza ancora l’asticella del cloud. L’azienda ha annunciato le nuove istanze Gpu P3 per il servizio Ec2 (Elastic Compute Cloud), basate sulle schede acceleratrici Nvidia Tesla V100. Secondo il provider si tratta della soluzione più potente attualmente disponibile sul mercato. E vedendo le specifiche è molto difficile smentirlo. Le istanze P3 forniscono infatti una potenza di calcolo di 1 petaflop in mixed-precision, arrivando a 62 teraflop in double-precision, grazie alle già citate Gpu di Nvidia e ai processori Intel Xeon E5-2686v4 personalizzati, in grado di fornire fino a 64 Cpu virtuali. Completano il quadro 488 GB di Dram, un’interconnessione diretta fra schede grafiche basata su Nvidia Nvlink e 25 Gbps di banda dedicata tramite interfaccia proprietaria Elastic Network Adapter (Ena).

Le istanze P3 sono pensate per applicazioni che richiedono elevati carichi di elaborazione in parallelo, come apprendimento automatico, fluidodinamica computazionale, finanza computazionale, analisi sismiche, modellistica molecolare, genomica e sistemi per la guida autonoma. Aws promette prestazioni 14 volte superiori rispetto alla precedente generazione di istanze (P2), lanciate lo scorso anno.

La novità porterà anche a una sensibile riduzione dei tempi necessari per la fase di training delle applicazioni machine learning, oltre a un miglioramento di 2,7 volte delle prestazioni in ambito high performance computing. Aws mette comunque a disposizione tre “taglie” per ogni istanza: la più piccola è la 2xlarge, basata su una scheda Tesla V100, 61 GiB di memoria e fino a 10 Gbps di banda. La via di mezzo è invece rappresentata da 8xlarge, con 4 Gpu di Nvidia e 244 GiB di memoria. Il prodotto più performante è la P3.16xlarge, di cui abbiamo già detto.

Ogni Tesla V100 con architettura Tesla integra 5.120 Cuda core e altri 640 Tensor core, progettati per accelerare la fase di training e le inferenze delle reti neurali profonde. Le nuove istanze sono disponibili nelle seguenti regioni: Us East (N. Virginia), Us West (Oregon), Eu West (Ireland) e Asia Pacific (Tokyo), ma prossimamente saranno accessibili anche in altre zone.

 

ARTICOLI CORRELATI