Nell’intelligenza artificiale, pensare in grande non è sempre necessario, anzi può rappresentare un problema. I modelli liguistici di grandi dimensioni come Gpt-4, Llama 2 o Gemini richiedono una notevole potenza di calcolo e capacità di storage, e per molte applicazioni risultano “pesanti” e non necessari. Per questo stanno nascendo diverse alternative "light". Microsoft ha ora annunciato Phi-3-mini, un modello linguistico di GenAI di piccole dimensioni ma capace, a detta dell’azienda, di performance anche molto superiori rispetto a suoi concorrenti di maggiori dimensioni.
Secondo Microsoft, infatti, Phi-3-mini raggiunge performance migliori di quelle di modelli di dimensioni doppie in attività che riguardano la comprensione del linguaggio, i calcoli matematici e la scrittura di codice. Le sue capacità sono paragonabili a quelle di Gpt-3.5, su cui si basa l’attuale versione base di ChatGpt.
Addestrato su 3,8 miliardi di parametri, Phi-3-mini è indicato per attività come il riassunto di documenti, le conversazioni botta e risposta dei chatbot, la risoluzione di problemi di matematica e il supporto nella programmazione software. A questo modello di taglia “mini” sarà seguito prossimamente da Phi-3-Small (addestrato su 7 miliardi di parametri) e di Phi-3-Medium (14 miliardi).
Programmi comparabili a Phi-3-mini per dimensioni e applicazioni consigliate sono per esempio Gemma, sviluppato da Google (in due versioni, con 2 e da 7 miliardi di parametri usati nell’addestramento) e Claude 3 Haiku, nato in casa Anthropic, oltre a Llama 3 di Meta (nella versione da 8 miliardi di parametri).