30/04/2024 di Roberto Bonino

Con Arctic, Snowflake si lancia nella corsa agli Llm aperti

A corredo della propria data platform, l’azienda sta spingendo sul potenziale dell’intelligenza artificiale in un contesto di open innovation e distribuzione open source.

Passo dopo passo, Snowflake sta creando la propria via verso l’integrazione dell’intelligenza artificiale avanzata all’interno della propria offerta, incentrata sulla gestione dei dati in cloud. Dopo aver rilasciato verso la fine del 2023 la tecnologia Cortex per la creazione di applicazioni AI-based e aver investito in Mistral, ora è il turno del lancio del proprio Llm, battezzato Arctic.

Al di là di una capacità da 480 miliardi di parametri, il nuovo motore di Snowflake si distingue per la propria architettura open source MoE (mixture of experts): “Arctic è un passo importante per l’azienda e per i nostri team di ricerca sull’intelligenza artificiale, che sono riusciti a offrire maggiori prestazioni e trasparenza lavorando sull’innovazione aperta”, ha indicato Shridar Ramaswamy, divenuto Ceo della società in febbraio dopo aver fondato l’acquisita Neeva. Il lancio arriva, in verità, con un po' di ritardo rispetto a un concorrente diretto come Databricks o alle diverse declinazioni di Llama di Meta, ma presenta elementi distintivi non trascurabili.

Shridar Ramaswamy, Ceo di Snowflake, durante la presentazione di Arctic

Shridar Ramaswamy, Ceo di Snowflake, durante la presentazione di Arctic

Un po' come accade in campo sanitario, dove un medico di base spesso indirizza i pazienti verso gli specialisti più indicati a fare una diagnosi, anche nel caso di Arctic i task di intelligenza artificiale sono suddivisi fra diverse componenti. Ciascuno di questi “esperti” è progettato per eseguire attività specifiche, per fare in modo che i risultati ottenuti siano più precisi. Il modello è in grado di impiegare fino a 128 esperti, che a loro volta possono attivare ciascuno 17 dei 480 miliardi di parametri presenti durante le fasi di inferenza e di training.

Il motore è stato sviluppato da un team creato da alcuni tecnici già impegnati in passato nella realizzazione delle librerie DeepSpeed, dove la tecnica MoE è stata sperimentata per la prima volta: “Questa modalità di elaborazione mirata rende i nostri modelli più efficienti rispetto a quelli densi”, ha puntualizzato Yuxiong He, ingegnere emerito di Snowflake e fra gli ideatori di Deepspeed. “Inoltre, consente di aumentare la loro capacità, mantenendo un volume di calcolo piccolo e fisso, creando inferenze più efficienti e un percorso di addestramento più economico".

Un altro aspetto sul quale il vendor ha posto l’accento è la totale apertura del proprio Llm, costruito su licenza Apache 2.0. Vengono forniti anche modelli di codice, oltre a opzioni flessibili di inferenza e formazione, in modo che gli utenti possano iniziare a distribuire e personalizzare il motore utilizzando i loro framework preferiti.

Arctic è disponibile all'interno di Cortex, me sarà accessibile su altre piattaforme, come Aws, Hugging Face, Lamini, Microsoft Azure, il catalogo Apidi Nvidia, Perplexity e Together AI.

scopri altri contenuti su

ARTICOLI CORRELATI