• IL NOSTRO NETWORK:
  • The Innovation Group
  • Technopolis
  • ictBusiness.it
logo
logo
  • News
  • Focus
  • Eccellenze.it
  • Strategie di Canale
  • Ti trovi in:
  • Home Page
  • News

La potenza di calcolo per l’AI è inadeguata, Ibm ha la risposta

La Artificial Intelligence Unit è un Asic specifico per il deep learning. Si tratta della “versione mignon” della piattaforma di calcolo usata sul supercomputer z16.

Pubblicato il 02 novembre 2022 da Valentina Bernocco

La capacità di calcolo per le applicazioni di intelligenza artificiale è inadeguata. A dirlo è Ibm, e sembrerebbe difficile crederlo pensando ai grandi data center del cloud, in continua espansione, e ai supercomputer (cioè i sistemi di High Performance Computing, Hpc) in dote ai più importanti centri di ricerca e università. La stessa Ibm ha cercato di democratizzare l’accesso all’intelligenza artificiale con soluzioni di Hpc distribuite attraverso l’iniziativa World Community Grid.

Ma oggi la maggior parte delle applicazioni di AI si basano ancora su Cpu generiche, per quanto potenti, e su Gpu create per il gaming. Per colmare questo vuoto i colossi dei semiconduttori, come Intel e la stessa Ibm, e grandi operatori di data center come Google stanno accelerando nella progettazione di chip specifici per l’intelligenza artificiale. “La potenza di calcolo si sta esaurendo”, spiega Ibm. “I modelli di AI stanno crescendo esponenzialmente, ma l’hardware che serve per allenare ed eseguire questi giganti su server nel cloud o su dispositivi edge, come gli smartphone e i sensori, non ha fatto progressi altrettanto rapidi”.


E così è nata la Artificial Intelligence Unit (Aiu), cioè il primo system-on-chip completo di Ibm pensato per eseguire e allenare modelli di deep learning, una declinazione del machine learning che riproduce i modelli di ragionamento umani, basati su diversi livelli di rappresentazione. Tecnicamente si tratta di un Asic (application-specific integrated circuit) progettato per applicazioni di deep learning e che può essere programmato per eseguire qualsiasi task di “ragionamento profondo” in modo più efficiente e rapido di quanto non farebbe una Cpu.

“Un’auto con motore a gasolio potrebbe funzionare anche a diesel, ma se l’obiettivo è ottimizzare la velocità e l’efficienza, allora serve il giusto carburante”, scrive Ibm. Fuor di metafora, l’azienda ha spiegato che la flessibilità e la precisione di calcolo delle Cpu sono un vantaggio quando si tratta di gestire applicazioni di altro tipo, ma diventano degli svantaggi nel training e nell’esecuzione di programmi di deep learning. Qui non serve un’eccessiva precisione, mentre è necessario gestire grandi quantità di operazioni di AI in parallelo. 

“Non stiamo calcolando traiettorie per l’atterraggio di un veicolo spaziale o determinando il numero di peli di un gatto”, spiega l’azienda. “Stiamo facendo previsioni e prendendo decisioni che non richiedono niente di simile a quella risoluzione granulare”. Dunque, con una tecnica sviluppata da Ibm già da qualche anno e chiamata calcolo approssimativo (approximate computing), è possibile passare da una piattaforma di calcolo a 32-bit ai formati bit che contengono un quarto dei dati e che, per il training e l’esecuzione di un algoritmo, possono eseguire molti meno calcoli numerici senza però sacrificare l’accuratezza. Inoltre possono spostare i dati sulla o dalla memoria in modo molto più rapido.

Ibm Artificial Intelligence Uniti (Aiu)

 

 

La Artificial Intelligence Unit include 32 nodi di calcolo e contiene 23 miliardi di transistor. Oltre che per attività di deep learning, è anche progettata per funzionare come una scheda grafica di facile utilizzo all’interno di qualsiasi computer o server dotato di interfaccia PCIe. Questa nuova piattaforma non nasce dal nulla: è una “versione mignon” dell’acceleratore di AI presente nel processore Telum di Ibm, quello impiegato nel supercomputer z12. Tutti questi prodotti sono stati sviluppati all’interno dell’AI Hardware Center, creato nel 2019 da Ibm con una missione: migliorare l’efficienza dell’hardware per l’AI di 2,5 volte ogni anno. Entro il 2029 sarà possibile allenare ed eseguire modelli di AI mille volte più velocemente di quanto non si potesse fare dieci anni prima.

 
Tag: ibm, chip, intelligenza artificiale, deep learning

IBM

  • Automazione intelligente per le telco grazie a Juniper e Ibm
  • Microsoft, Apple e Ibm sono le aziende meglio gestite al mondo
  • La potenza di calcolo per l’AI è inadeguata, Ibm ha la risposta
  • Siem, un mercato in crescita grazie al modello “as a service”
  • Osservabilità dei dati e automazione, Ibm acquisisce Databand.ai

NEWS

  • Nuove Gpu e alleanze nel cloud per spingere l’AI di Nvidia
  • Data center Aruba, l’impegno per la sostenibilità è certificato
  • Google Cloud raddoppia in Italia con la “regione” di Torino
  • Acquisizione Broadcom-Vmware, semaforo giallo in Regno Unito
  • Made in Italy e low code, il Bpm di Cualeva
Seguici:
IctBroadcast

Tweets by ictBusinessIT

Top news
  • Più lette
  • Ultime pubblicate
Da Vertiv un Ups versatile, tra potenza e risparmio energetico
Didattica in realtà virtuale immersiva per le scienze radiologiche
La sicurezza rafforzata dall’AI ispira gli sviluppi di Dynatrace
Dati per il business e per il bene comune, così li usano le aziende
Sap conferma l’impegno sul canale, vi transita il 90% dei progetti
La febbre dell’intelligenza artificiale fa ripartire i ricavi di Nvidia
AI, Microsoft corregge le novità di Bing e porta il chatbot su Skype
Trasformazione digitale in azienda, scontento un dipendente su tre
Nel cloud di Infobip i dati possono restare in Europa
Pc in picchiata a inizio 2023, cautela tra i distributori
Sd-Wan e 5G tengono banco negli sviluppi di VMware
Transizione energetica, il gap tra buone intenzioni e fatti
Automazione intelligente per le telco grazie a Juniper e Ibm
Reti a supporto della blockchain e dei contenuti, Gtt scelta da Eluvio
Accesso esteso all tecnologie di cloud ibrido Red Hat per i partner
Microsoft, novità di Azure per gli operatori di telecomunicazione
PA, utilities e servizi finanziari volano per Oracle in Italia
Una nuova intranet fa “viaggiare” Autostrade per l’Italia
Gli errori di configurazione del cloud sono quasi ubiqui
Microsoft lancia in Dynamics un “copilota” di intelligenza artificiale
Nuove Gpu e alleanze nel cloud per spingere l’AI di Nvidia
Data center Aruba, l’impegno per la sostenibilità è certificato
Google Cloud raddoppia in Italia con la “regione” di Torino
Acquisizione Broadcom-Vmware, semaforo giallo in Regno Unito
Made in Italy e low code, il Bpm di Cualeva
ChatGPT potenziale rischio, il cybercrimine può sfruttarlo
Phishing, attenzione alle nuove tattiche che superano i controlli
Prestazioni, stabilità, sicurezza e facilità: le promesse di Java 20
Hackeraggio su Atac, fermi il sito e la biglietteria online
Roberto Scorzoni guida l’area pagamenti digitali di Minsait
Chi siamo
Contatti
Privacy
Informativa Cookie
News
Focus
Eccellenze.it
Strategie di canale
The Innovation Group
Technopolis
indigo logo tig logo
© 2023 The Innovation Group, via Palermo 5, 20121 Milano | P.IVA 06750900968