Big Sur, il “cervello” hardware di Facebook diventa open source
La società di Menlo Park metterà a disposizione attraverso l’Open Compute Project una variante della piattaforma da essa stessa utilizzata per compiti di intelligenza artificiale. Big Sur, un server basato su Gpu, è più efficiente e il doppio più veloce rispetto al sistema di precedente generazione.
Pubblicato il 11 dicembre 2015 da Redazione

Oltre a devolvere gran parte del suo patrimonio, Mark Zuckerberg vuol condividere con il mondo anche il suo “cervello”. L’intelligenza artificiale che regola il funzionamento di Facebook, o meglio il suo hardware, diventa open source: l’azienda di Menlo Park renderà presto disponibile alla community dei ricercatori e sviluppatori una versione di Big Sur, un server che esegue calcoli su larga scala e che Facebook utilizza per programmi di machine learning e per far funzionare le “reti neurali” che mimano i meccanismi del ragionamento umano.
Tipicamente questo genere di intelligenza artificiale è utile per gestire contenuti non strutturati come immagini e video, ma è anche per svolgere altri tipi di azione complessa. Facebook, per esempio, la utilizza massicciamente per ordinare i contenuti fotografici e i video, oltre che per personalizzare i news feed. “Abbiamo sviluppato un software che può leggere delle storie, rispondere a delle domande su una situazione, giocare e addirittura apprendere comandi non specificati ossevando alcuni esempi”, scrivono due ricercatori del centro di Artificial Intellience di Facebook, Kevin Lee e Serkan Piantino.
Mandare avanti queste attività su larga scala, come fa il social network per i suoi 1,18 miliardi di utenti, richiedeva però sistemi hardware costruiti ad hoc. Da questa esigenza è nato Big Sur, un sistema basato su Gpu che adopera otto schede acceleratrici Tesla M40 di Nvidia e che è “il doppio più veloce della precedente generazione, il che significa che possiamo istruire le reti neurali al doppio della velocità ed esplorare reti due volte più grandi”, sottolineano Lee e Piantino. Rispetto al precedente hardware, quello nuovo è anche più efficiente poiché consuma meno energia, opera a temperature inferiori e viene raffreddato ad aria.
Quest’hardware, nato da Facebook e per Facebook, a breve sarà messo a disposizione di tutti attraverso l’Open Compute Project (di cui fanno parte anche Microsoft, Intel e Cisco) in una variante “open rack compatibile”. Le otto schede acceleratrici sono saldate su una scheda madre, ma l’assetto è facilmente modificabile, al punto che “i dissipatori della Cpu sono le uniche cose che necessiteranno di un cacciavite”, sottolinea l’azienda.
I componenti più soggetti a guasti e necessità di sostituzione, come gli hard disk e i moduli di memodia Dimm, possono essere rimossi in pochi secondi, mentre basta qualche minuto per sostituire la motherboard. “Vogliamo rendere molto più facile per i ricercatori condividere le loro tecniche e tecnologie basate sull'intelligenza artificiale”, rimarca il blogpost firmato da Lee e Piantino. “Crediamo che questa collaborazione aiuterà a promuovere l'innovazione per i progetti futuri e ci permetterà di fare un passo avanti verso la costruzione di sistemi di intelligenza artificiale più complessi”.
- Con i “personaggi” chatbot Meta aiuterà i suoi social network?
- Buon momento per Meta: riparte l’advertising e si pensa all’AI
- Meta, l’indagine sulla tassazione dei dati avrà un impatto esteso
- Facebook ha violato il Gdpr, multa record da 1,2 miliardi di euro
- Zuckerberg, l’AI sarà accessibile a miliardi di persone
NEWS
- Multa antitrust da 376 milioni di euro per il “cold case” di Intel
- Accenture: cloud un’opportunità di crescita per le Pmi e per l’economia
- Cisco e Salesforce tra le migliori aziende in cui lavorare in Europa
- L’AI di Microsoft Copilot debutta su Windows 11 e sui Surface
- 28 miliardi di dollari per Splunk, riecco la Cisco razziatrice