Secondo il World Economic Forum, nel 2025 il tempo di lavoro delle macchine supererà il tempo di lavoro dell’uomo. Basterebbe solo questa autorevole previsione per comprendere l’impatto che le tecnologie come la robotica ma soprattutto l’Intelligenza Artificiale avranno, da una parte, sulla nostra vita e, dall’altra, sulle infrastrutture tecnologiche. Più focalizzata sugli aspetti del business, la società di ricerca Gartner sostiene invece che le aziende leader (di qualsiasi settore) raddoppieranno l’anno prossimo gli investimenti in A.I., soprattutto per l’automazione dei processi e per migliorare l’esperienza dei propri clienti.

Da qualunque punto di osservazioni si guardi, nuove tecnologie come il deep learning sono sempre più utilizzate per migliorare tanti aspetti della vita quotidiana, per esempio la diagnosi delle malattie, la conservazione del patrimonio naturale, i trasporti di cose e persone, e dei processi delle imprese. Il rovescio della medaglia è che la potenza di calcolo necessaria per realizzare questi progetti metterà a dura prova sia i grandi data center sia i dispositivi periferici. E c’è di più: l’Intelligenza Artificiale non è solo protagonista in progetti ad alta visibilità, come ad esempio quello le automobili a guida autonoma, ma viene innestata sempre più di frequente, restando trasparente per l’utente finale, in qualsiasi soluzione, dall’Erp agli Analytics di nuova generazione.

 

 

È per questo che le aziende come Intel sono impegnate, da una parte, a creare e rendere disponibili soluzioni utilizzabili da subito per finalizzare i nuovi progetti che comprendono l’A.I., dall’altra a rendere sostenibile questo progresso, con dispositivi e tool che permettano di reggere l’urto dell’aumento esponenziale della potenza di calcolo necessaria. L’ecosistema dell’offerta Intel comprende già oggi un insieme completo di librerie software, framework, tool e naturalmente anche piattaforme hardware progettate appositamente per permettere la realizzazione dei progetti di Intelligenza Artificiale.

Il primo mattone è la disponibilità di processori potenti e scalabili come quelli dell’ultima generazione Intel Xeon, i primi a essere stati pensati proprio per i grandi carici di lavoro richiesti dall’A.I., oltre che per l’High Performance Computing.

Ma Intel si è spinta anche oltre, mettendo già a disposizione del mercato una nuova categoria di unità di elaborazione, le Neural Processing Unit della famiglia Nervana, appositamente realizzate per supportare i processi di addestramento e inferenza delle applicazioni di deep learning più intensive. Questi processori, denominati specificamente Neural Network Processor (NNP), sono stati annunciati durante l’ultima edizione del CES di Las Vegas e saranno disponibili nel corso del 2019. Ancora più specifici per supportare i carichi di lavoro inferenziali sono i nuovi circuiti integrati programmabili FPGA della serie Stratix 10, unità che possono essere adattate per diversi compiti e carichi di lavoro nell’ambito dell’elaborazione di grandi moli di dati strutturati e non strutturati.

Stupefacente, infine, è la Intel Movidius Neural Compute Stick, un prodotto che l'azienda statunitense definisce come "il primo acceleratore di intelligenza artificiale autonomo al mondo disponibile in formato USB", e che costituisce una soluzione all’avanguardia per l’implementazione di reti neurali e applicazioni di visione artificiale a basso consumo, come quelle che possono essere implementate su droni e robot.

 

I componenti hardware sono solo una parte, per quanto importante, dell’offerta Intel, che comprende, tra le altre cose, la piattaforma Nauta, pensata per il deep learning e costruita con tecnologia Kubernetes, che include sia soluzioni custom sviluppate da Intel sia soluzioni open source, che possono essere utilizzate e mixate in modo flessibile ed efficace per il rapido sviluppo di progetti di Intelligenza Artificiale.