26/07/2018 di Redazione

Da Google un chip più piccolo di un “cent” per gli oggetti connessi

Tra gli annunci della conferenza Cloud Next anche Edge Tpu, una archittura di riferimento per processori adatti implementare carichi di machine learning per l'Internet of Things, dal centro fino ai margini delle reti.

immagine.jpg

 

L'intelligenza artificiale per Google deve poter arrivare ovunque, non solo nelle potenti macchine di un data center ma anche ai “margini” delle reti, cioè all'edge computingi. Dalla conferenza Cloud Next, in mezzo ad annunci riguardanti le piattaforme di sviluppo applicativo, i container e i servizi della G Suite, c'è posto anche per il processore Edge Tpu, per il relativo kit di sviluppo e per il software Cloud IOT Edge. Soluzioni che permettono di portare il machine learning in oggetti connessi che fanno parte di applicazioni industriali, catene di montaggio, piattaforme petrolifere, automobili e dispositivi indossabil.

Edge Tpu è un'architettura di riferimento per processori Asic (cioè specifici per date applicazioni) grandi quanto una frazione di monetina da un centesimo di dollaro, come ben mostrato nell'immagine diffusa da Google. Non processori qualsiasi ma purpose-built per attività di intelligenza artificiale basate sulla libreria open-source di TensorFlow, come da acronimo Tpu (Tensor Processing Unit), e più precisamente su TensorFlow Lite. A detta di Injong Rhee, vice president per l'Internet of Things di Google Cloud, “Edge Tpu porterà un cervello sui dispositivi embedded a costi estremamente ridotti e con estrema efficienza energetica, senza compromettere le prestazioni”.

Cloud Iot Edge è, invece, un software eseguibile su Android Things o su altri sistemi operativi derivati da Linux per oggetti Internet of Things, e progettato per funzionare con i chip appena descritti. È composto da due componenti runtime, Edge IoT Core ed Edge ML (Machine Learning): il primo gestisce le connessioni fra il dispositivo e il cloud, lo scambio di dati e gli aggiornamenti del software e del firmware, mentre il secondo fa sì che le inferenze di apprendimento automatico basate sui modelli di TensorFlow Lite siano eseguite direttamente sull'oggetto IoT e non su qualche server o macchina esterna, come solitamente accade.

 

 

 

La società di Mountain View suggerisce possiblità di utilizzo in campo manifatturiero (per esempio per la manutenzione predittiva di macchine e impianti), nell'automotive (per i veicoli a guida driverless o parzialmente tale) e nel retail. Il terzo elemento, cioè il kit di sviluppo software, sarà reso disponibile in ottobre. Google ha sottolineato di essere, al momento, l'unico fornitore in grado di proporre un'offerta integrata di hardware e software con cui poter realizzare attività di machine learning con oggetti connessi all'Internet delle Cose, eseguendo i calcoli tanto nel cloud quanto nell'edge.

 

 

ARTICOLI CORRELATI