11/12/2015 di Redazione

Big Sur, il “cervello” hardware di Facebook diventa open source

La società di Menlo Park metterà a disposizione attraverso l’Open Compute Project una variante della piattaforma da essa stessa utilizzata per compiti di intelligenza artificiale. Big Sur, un server basato su Gpu, è più efficiente e il doppio più veloce r

immagine.jpg

Oltre a devolvere gran parte del suo patrimonio, Mark Zuckerberg vuol condividere con il mondo anche il suo “cervello”. L’intelligenza artificiale che regola il funzionamento di Facebook, o meglio il suo hardware, diventa open source: l’azienda di Menlo Park renderà presto disponibile alla community dei ricercatori e sviluppatori una versione di Big Sur, un server che esegue calcoli su larga scala e che Facebook utilizza per programmi di machine learning e per far funzionare le “reti neurali” che mimano i meccanismi del ragionamento umano.

Tipicamente questo genere di intelligenza artificiale è utile per gestire contenuti non strutturati come immagini e video, ma è anche per svolgere altri tipi di azione complessa. Facebook, per esempio, la utilizza massicciamente per ordinare i contenuti fotografici e i video, oltre che per personalizzare i news feed. “Abbiamo sviluppato un software che può leggere delle storie, rispondere a delle domande su una situazione, giocare e addirittura apprendere comandi non specificati ossevando alcuni esempi”, scrivono due ricercatori del centro di Artificial Intellience di Facebook, Kevin Lee e Serkan Piantino.

Mandare avanti queste attività su larga scala, come fa il social network per i suoi 1,18 miliardi di utenti, richiedeva però sistemi hardware costruiti ad hoc. Da questa esigenza è nato Big Sur, un sistema basato su Gpu che adopera otto schede acceleratrici Tesla M40 di Nvidia e che è “il doppio più veloce della precedente generazione, il che significa che possiamo istruire le reti neurali al doppio della velocità ed esplorare reti due volte più grandi”, sottolineano Lee e Piantino. Rispetto al precedente hardware, quello nuovo è anche più efficiente poiché consuma meno energia, opera a temperature inferiori e viene raffreddato ad aria.

Quest’hardware, nato da Facebook e per Facebook, a breve sarà messo a disposizione di tutti attraverso l’Open Compute Project (di cui fanno parte anche Microsoft, Intel e Cisco) in una variante “open rack compatibile”. Le otto schede acceleratrici sono saldate su una scheda madre, ma l’assetto è facilmente modificabile, al punto che “i dissipatori della Cpu sono le uniche cose che necessiteranno di un cacciavite”, sottolinea l’azienda.

 

 

I componenti più soggetti a guasti e necessità di sostituzione, come gli hard disk e i moduli di memodia Dimm, possono essere rimossi in pochi secondi, mentre basta qualche minuto per sostituire la motherboard. “Vogliamo rendere molto più facile per i ricercatori condividere le loro tecniche e tecnologie basate sull'intelligenza artificiale”, rimarca il blogpost firmato da Lee e Piantino. “Crediamo che questa collaborazione aiuterà a promuovere l'innovazione per i progetti futuri e ci permetterà di fare un passo avanti verso la costruzione di sistemi di intelligenza artificiale più complessi”.

 

ARTICOLI CORRELATI