Accelerare le applicazioni di AI generativa direttamente sui Pc, ma anche potenziare i server per training e l’inferenza eseguiti nei data center. Su questo doppio binario scorre l’evoluzione dei semiconduttori per l'intelligenza artificiale. E gli ultimi annunci di Nvidia e Amd, snocciolati al Computex di Taipei, mostrano bene questa evoluzione parallela. Nel corso della principale fiera dell’informatica in Asia, le due concorrenti si sono sfidate a colpi di nuove piattaforme di calcolo e accelerazione ottimizzate per l’AI e di annunci di roadmap.
A Lisa Su, amministratore delegato di Advanced Micro Devices, l’onore di presentare i nuovi acceleratori Instinct MI325X, che saranno disponibili sul mercato nell’ultimo trimestre di quest’anno (qui i dettagli tecnici). Basati sugli stessi standard di progettazione della serie Instinct MI300, questi componenti potenziano le capacità di calcolo dei server garantendo 288 GB di memoria HBM3E e una larghezza di banda di memoria pari a 6 terabyte per secondo.
La roadmap già tracciata da Amd prevede poi per il 2025 il debutto dei modelli della serie Instinct MI350, basata sulla nuova architettura Amd Cna 4: la promessa è di accelerare fino a 25 volte le performance delle applicazioni di intelligenza artificiale (cioè l’inferenza). Il passo successivo sarà, nel 2026, il lancio della serie Instinct MI400, basata su architettura Cdna “Next”.
Nel frattempo la serie MI300X rappresenta la proposta di Amd più evoluta, tra quelle già disponibili sul mercato. Brad McCredie, corporate vice president, Data Center Accelerated Compute di Amd, ha sottolineato che sono stati adottati da numerosi partner e clienti, tra cui Microsoft Azure, Meta, Dell Technologies, Hpe e Lenovo. “Con la nostra aggiornata cadenza di prodotti”, ha detto McCredie, “senza mai fermarci restiamo al passo dell’innovazione, fornendo le capacità e performance da leader che il settore dell’AI e i nostri clienti si aspettano, per guidare la prossima evoluzione nell’addestramento e nell’inferenza dell’AI nei data center”. Con questa strategia di prodotto l’azienda punterà, nei prossimi anni, a guadagnarsi più spazio nel mercato dei semiconduttori per l’AI, attualmente dominato da Nvidia, con l’80% di market share.
Amd ha anche presentato i nuovi processori Ryzen 9000 per il gaming e i processori di prossima generazione Ryzen AI 300 Series, destinati invece ai personal computer e in particolare agli AI Pc Windows con Copilot+. Si tratta di chip basati su architettura Zen5, con grafica integrata Amd Radeon Serie 800 e unità di calcolo neurale (Neural Processing Unit, Npu). La gamma si compone al momento di due modelli, con frequenza operativa massima di 5,1 e 5 GHz.
Jensen Huang, amministratore delegato di Nvidia
Gli annunci del Computex evidenziano che anche Nvidia sta lavorando su più direzioni, dai prodotti per data center, agli AI Pc, ai servizi rivolti agli sviluppatori. Tra le altre cose è stata annunciata la disponibilità generale dei servizi Ace (Avatar Cloud Engine) con cui gli sviluppatori possono di creare “umani digitali” all’interno di videogiochi, ovvero personaggi capaci di conversare con l’utente in un dialogo realistico, senza liimitarsi a ripetere battute preconfezionate. Questa tecnologia è nata all’interno di Omniverse, la piattaforma di strumenti e software di Nvidia per il metaverso inteso in senso lato, ad abbracciare il gaming, i digital twin e la simulazione. E non è escluso che capacità di questo tipo possano in futuro uscire dall’ambito dei videogiochi, intrecciandosi con le altre evoluzioni dell’AI generativa.
Al Computex è stata presentata anche una collaborazione con Microsoft per la creazione di una Application Programming Interface (Api) che permetterà di integrare l’accelerazione basata sulle Gpu GeForce Rtx in Windows Copilot Runtime. In sostanza, futuri modelli di Pc potranno eseguire applicazioni di AI generativa (come Copilot) direttamente sulla macchina con la spinta di un’accelerazione superiore a quella garantita, oggi, dalle Npu (Neural Processing Unit). L’Api sarà pronta entro la fine dell’anno.
“L’accelerazione rappresenta il futuro del computing”, ha detto l’amministratore delegato di Nvidia, Jensen Huang. “Con le nostre innovazioni di AI e calcolo accelerato stiamo estendendo i confini del possibile e stiamo spingendo la prossima ondata di avanzamenti tecnologici”.
Per quanto riguarda gli sviluppi di lungo corso, Huang ha annunciato che la piattaforma di calcolo next gen, nome in codice “Rubin”, sarà lanciata nel 2026. Oltre a nuova Gpu, la futura gamma includerà un “superchip” composto da Cpu, Gpu e componenti di networking. L’azienda rilascerà anche una nuova, più potente versione delle sue Gpu Blackwell nel corso del 2025: anziché otto strati di memoria, ne avranno dodici.