28/02/2023 di Redazione

Meta porterà l'AI generativa in Facebook, Instagram e Whatsapp

L’azienda di Mark Zuckerberg lavorerà su nuovi prodotti basati su intelligenza artificiale, inizialmente per la creazione di contenuti. Nel futuro, nuove chat, filtri fotografici, formati pubblicitari e video.

immagine.jpg

Ormai è quasi impossibile non parlare ogni giorno di intelligenza artificiale, visto l’hype creatosi intorno a ChatGPT e ad altri chatbot basati su modelli di AI generativa e di elaborazione del linguaggio naturale. Dopo le notizie riguardanti Alphabet, Microsoft e Tencent, oggi è la volta di Meta: l’azienda di Menlo Park avvierà una “squadra speciale”, un team di professionisti esperti che si dedicheranno allo sviluppo di prodotti di intelligenza artificiale generativa, da integrare in Facebook, Instagram, Whatsapp e negli altri servizi dell’azienda, come la piattaforma di realtà virtuale Horizon Worlds.

Lo ha svelato lo stesso Mark Zuckerberg su Facebook:In Meta stiamo creando un nuovo gruppo di prodotto di altissimo livello, focalizzato sull’AI generativa, per mettere il turbo al nostro lavoro in quest’area”. La società ha cominciato a far convergere tra di loro diversi team già impegnati su progetti di intelligenza artificiale generativa, creando così un unico gruppo che si occuperà di “costruire esperienze incantevoli basate su questa tecnologia in tutti i nostri prodotti”, ha spiegato il Ceo. Il nuovo team sarà guidato da Ahmad Al-Dahle, un esperto di intelligenza artificiale e realtà virtuale entrato in Meta nel 2020, dopo 16 anni trascorsi in Apple.


Nel breve termine l’azienda si focalizzerà sullo sviluppo di strumenti per la creatività e la creazione di contenuti, mentre nel lungo periodo si arriverà a creare dei “personaggi di AI che possono aiutare le persone in molti modi”. Fra le altre cose, Meta lavorerà su esperienze testuali (per esempio all’interno delle chat di WhatsApp e Messenger), sulle immagini (come filtri creativi per Instagram e nuovi formati per le inserzioni pubblicitarie), su esperienze video e multimodali (su questo punto non vengono citati esempi, ma possiamo immaginare che Facebook e Instagram saranno le destinazioni principali). Zuckerberg ha ammesso che c’è ancora molto lavoro da fare prima di realizzare queste “esperienze futuristiche”, ma l’entusiasmo non manca.

Lo stesso dichiarato entusiasmo aveva caratterizzato il lancio dei progetti di metaverso, una scommessa che finora è costata molto in termini di investimenti ma ha fruttato poco in termini di coinvolgimento di utenti e potenziali sponsor. Anche per quanto riguarda il Web3, così come per l’AI generativa, siamo ancora di fronte a un mercato abbastanza immaturo sia dal punto di vista delle tecnologie (pur già sofisticate, ma ancora molto imperfette) sia per quanto riguarda gli investimenti e il tasso di adozione. Non è escluso che in futuro i due mondi del metaverso e dell’AI generativa possano convergere, e le piattaforme di Meta (inclusa Horizon Worlds) potrebbero essere la destinazione ideale.

 

 

 

LLaMA, l’alternativa di Meta a GPT-3
Intanto Meta fa progressi nell’area dei modelli di intelligenza artificiale applicata al linguaggio, mettendosi al fianco della comunità dei ricercatori. Qualche giorno fa è stato distribuito LLaMA (acronimo di Large Language Model Meta AI), un programma che può essere “allenato” anche senza disporre di grandi risorse infrastrutturali per il calcolo e lo storage. Ne beneficeranno soprattutto i ricercatori che studiano modelli di AI linguistica, che esplorano nuovi approcci o scenari di utilizzo. LLaMA, è disponibile in diverse “taglie”, prevedendo 7, 13, 33 o 65 miliardi di parametri. L’azienda ha anche pubblicato la documentazione tecnica del modello.


Questo prodotto di Meta si pone, dunque, come una possibile alternativa a GPT-3, il modello di intelligenza artificiale che alimenta ChatGPT. Una caratteristica tecnica che rende LLaMA particolarmente evoluto è che, a parità di “dimensione” del modello, i token (cioè i frammenti di parola) utilizzati per addestrarlo sono molto più numerosi. Per il training della variante di LLaMA con sette miliardi di parametri, per esempio, sono stati impiegati mille miliardi di token; per quelle da 33 e 65 miliardi di parametri, i token usati sono 1.400 miliardi.  Netto il distacco da GPT-3, per il cui addestramento OpenAI ha utilizzato solo 300 miliardi di token.

 

scopri altri contenuti su

ARTICOLI CORRELATI