Nuove Gpu e alleanze nel cloud per spingere l’AI di Nvidia
A detta del Ceo, Jensen Huang, siamo in una fase cruciale per il futuro dell’intelligenza artificiale. Si ampliano le collaborazioni con Oracle, Amazon, Microsoft e altri fornitori cloud.
Pubblicato il 23 marzo 2023 da Valentina Bernocco

Nvidia accelera sull’intelligenza artificiale con una nuova strategia e nuove alleanze tecnologiche. La corsa all’AI coinvolge non solo gli sviluppatori di software e i fornitori di servizi Web e cloud (a partire dai colossi come Microsoft, Amazon Aws e Google), ma anche i produttori di hardware e in particolare il mondo dei semiconduttori. Già nel 2016 il supercomputer Nvidia DGX AI è stato usato da OpenAI per allenare GPT, il modello linguistico che sta alla base del più noto chatbot. Anche Meta ha utilizzato le Gpu di Nvidia per Grand Teton AI, il supercomputer utilizzato internamente per attività di ricerca e sviluppo di intelligenza artificiale.
Ora, come annunciato dal fondatore e Ceo di Nvidia, Jensen Huang, le ultime frontiere dell’intelligenza artificiale (dalle applicazioni fatte e finite ai servizi per lo sviluppo) saranno accessibili anche alle aziende più piccole grazie al cloud, senza dover acquistare costosi sistemi hardware. Nvidia collaborerà con i grandi operatori del settore, come Microsoft, Google, Aws e Oracle, per offrire un’ampia gamma di servizi di infrastruttura (IaaS) e di piattaforma (PaaS).
“I supercomputer DGX sono le moderne fabbriche di intelligenza artificiale”, ha dichiarato Huang. Il Ceo ha anche parlato della fase che stiamo vivendo come del “momento iPhone dell’AI”, alludendo al fatto che le tecnologie come ChatGPT rappresentano un punto di svolta fondamentale, paragonabile a quello che il telefono di Apple è stato per gli smartphone.
Jensen Huang, fondatore e Ceo di Nvidia
Tra le novità appena annunciate c’è H100 NVL (nell'immagine in alto), un’unità di calcolo grafico progettata per le attività di inferenza di intelligenza artificiale e per far funzionare, in particolare, i grandi modelli linguistici come GPT. A tal fine la nuova Gpu include una componente chiamata Transformer Engine e utilizza una tecnologia di interconnessione (NVLink è il nome registrato da Nvidia) che permette notevoli incrementi di velocità di calcolo e conseguenti risparmi. Un server equipaggiato con quattro H100 NVL, anziché con le precedenti Gpu HGX A100, può velocizzare di dieci volte l’esecuzione di GPT-3.
Nvidia propone anche un nuovo superchip chiamato Grace Hopper, che connette le Gpu Grace e Hopper con un’interfaccia chip-to-chip da 900 GB/sec. Grace Hopper è ideale per elaborare i giganteschi database di alcune applicazioni di AI, come i grandi modelli linguistici e i sistemi di raccomandazione usati nell’advertising online e nell’e-commerce.
Fra le nuove e rafforzate alleanze c’è quella con Oracle, che è stato scelto da Nvidia per la proposta di servizi di supercalcolo di intelligenza artificiale. La Oracle Cloud Infrastructure (Oci) proporrà Nvidia DGX Cloud, un servizio di supercomputing AI, su larghissima scala, e già supporta i servizi cloud di intelligenza artificiale generativa (per linguaggi, immagini, video, contenuti 3D e altro ancora) Nvidia AI Foundations. Tra i clienti di questi servizi spiccano Adobe, Getty Images e Shutterstock, che utilizzano la tecnologia di Nvidia per sviluppare nuove capacità generative per text-to-images, text-to-video, immagini 3D e altro ancora.
Anche Amazon Web Services sta collaborando con Nvidia con l’ambizioso obiettivo di creare “l’infrastruttura di intelligenza artificiale on-demand più scalabile al mondo”, ottimizzata per l'addestramento di modelli linguistici di grandi dimensioni e per lo sviluppo di applicazioni di intelligenza artificiale generativa. Su Aws debuttano nuove istanze P5 (il numero indica che si tratta della quinta generazione delle istanze Aws basate su Gpu Nvidia, un’unione avviata 13 anni fa), ideali per il deep learning e in particolare per l’addestramento di modelli linguistici di grandi dimensioni e di modelli di computer vision.
Le istanze P5 vengono proposte tramite Amazon Elastic Compute Cloud (Amazon EC2) e impiegano Gpu Nvidia H100 Tensor Core, potendo fornire fino a 20 exaFLOPS di prestazioni di calcolo. Tra i clienti di Aws interessati ci sono aziende come Anthropic, Cohere, Hugging Face, Pinterest e Stability AI, ma l’offerta è rivolta anche a startup, piccole e medie imprese e ricercatori.
La scorsa settimana è stata annunciata anche la disponibilità, ma solo come anteprima privata, di macchine virtuali basate sulle Gpu Nvidia H100 v5 all’interno di Azure, l’infrastruttura cloud di Microsoft. Inoltre anche Google Cloud, Lambda, Paperspace e Vultr prossimamente includeranno le H100 nelle rispettive offerte infrastrutturali.
Per quanto riguarda le alleanze con i produttori di hardware, anche qui la lista è ampia: Atos, Cisco, Dell Technologies, Gigabyte, Hewlett Packard Enterprise, Lenovo e Supermicro hanno già scelto le Gpu H100 per i propri server. Nvidia ha anche annunciato numerosi accordi con piattaforme per l’AI e il machine learning come Canonical, ClearML, Dataiku, Domino Data Lab, Run:ai e Weights & Biases.
ORACLE
- Anneghiamo in un mare di dati, istinto e A.I. le scappatoie
- Nuove Gpu e alleanze nel cloud per spingere l’AI di Nvidia
- Prestazioni, stabilità, sicurezza e facilità: le promesse di Java 20
- PA, utilities e servizi finanziari volano per Oracle in Italia
- Il multicloud dilaga nelle grandi aziende, per molte buone ragioni
NEWS
- Dati di sicurezza riuniti in un solo luogo con Amazon Security Lake
- Vendite di Pc in calo del 29%, Hp continua a guardare al futuro
- La piattaforma Sgbox si allarga con la gestione degli incidenti
- Phishing endemico, ma è quello mirato a fare i maggiori danni
- Il cloud ibrido ispira le evoluzioni software di Infinidat