Facebook porta in dote a Intel i propri algoritmi di deep learning. Le due aziende stanno collaborando allo sviluppo della prossima generazione di processori Xeon Copper Lake del chip maker di Santa Clara e, a quanto si apprende in queste ore, il social network fornirebbe il proprio expertise nel campo dell’intelligenza artificiale per ottimizzare le prestazioni delle Cpu destinate ai server. Durante l’Open Compute Project Global Summit, i due colossi hanno illustrato alcuni dettagli sul formato a virgola mobile Bfloat 16, creato inizialmente da Google. Il progetto elaborato da Big G dovrebbe migliorare le performance per determinati carichi di lavoro come la classificazione delle immagini e il riconoscimento dei testi, “offrendo lo stesso range dinamico delle rappresentazioni in virgola mobile a 32 bit”.

L’architettura Cooper Lake è il seguito delle soluzioni basate su Cascade Lake: i processori, realizzati a 14 nanometri, dovrebbero arrivare nel corso del 2019 sui server di produttori come Dell, Hpe, Lenovo e Supermicro. Intel starebbe lavorando per rilasciare design a quattro e otto socket (insieme alla cinese Inspur), che rappresenterebbero un netto miglioramento rispetto all’attuale configurazione a due socket.

La prossima generazione di Cpu Xeon Scalable, quindi, potrà contare su un massimo di 112 core e 224 thread per server a quattro socket, a cui si aggiungerà un massimo di 12 TB di memoria Dcpmm (Dc Persistent Memory Modules). L’ottimizzazione (e la customizzazione) fornita da realtà come Facebook migliorerà sensibilmente la capacità di adattamento di questa piattaforma nei grandi data center cloud, dove ormai un processore su due si basa su un design personalizzato. Cooper Lake si troverà ad affrontare la concorrenza della serie Epyc di Amd, che già oggi offre soluzioni con 128 core e 256 thread su due socket.