L’intelligenza artificiale generativa fa rapidi progressi e uno dei suoi frutti più recenti e più “maturi” è GPT-4: il più avanzato tra i modelli linguistici di grandi dimensioni di OpenAI passa alla disponibilità generale. Si tratta dell’evoluzione di GPT-3.5, il modello alla base della versione gratuitamente disponibile (e già integrata in molti software commerciali) di ChatGPT. I clienti paganti di ChatGPT Plus possono ora mettere le mani su GPT-4 con un tetto massimo di utilizzo, mentre per gli sviluppatori già c’è una lista d’attesa a cui è possibile registrarsi per accedere all’API del modello.
Come funziona GPT-4? La principale differenza rispetto alla versione 3.5 è che questo Generative Pre-trained Transformer (da cui l’acronimo Gpt) può generare testo e codice software a partire da prompt o altri input di natura testuale ma anche a partire da immagini. In sintesi, è non solo un modello linguistico testuale bensì un modello multimodale.
Ma non è questo l’unico progresso ottenuto con mesi di lavoro di allenamento e perfezionamento. OpenAI ha addestrato il programma utilizzando dati pubblicamente disponibili (tra cui pagine Web) e altri su cui l’azienda ha acquisito diritti, ma anche i prompt inseriti dagli utenti nell’app di ChatGPT. Non è dato sapere quanti siano i miliardi di parametri che GPT-4 sa gestire, ma sono sicuramente molti più dei 175 miliardi gestiti da GPT-3.5.
Questo si traduce in una complessiva capacità di “ragionamento” più evoluta, più vicina a quella del cervello umano. Il software quindi comprende meglio le sfumature di significato, sa analizzare meglio il contesto e produce risposte più “creative”. “In una conversazione superficiale, la differenza tra GPT-3.5 e GPT-4 può essere sottile”, ha spiegato OpenAI. “La differenza emerge quando la complessità della richiesta supera una certa soglia: GPT-4 è più affidabile, più creativo e capace di gestire le istruzioni con molte più sfumature”.
Inoltre, essendo stato addestrato sui prompt che gli utenti hanno proposto a ChatGPT per mesi, il nuovo modello ha imparato a non farsi ingannare da richieste maliziose o provocatorie. Di fronte a domande problematiche dal punto di vista della legalità, della sicurezza o dell’etica (per esempio, una richiesta di istruzioni su come costruire un’arma o su come fare del male a sé stessi), il software non soddisfa la richiesta spiegando il perché. OpenAI ha ammesso che è ancora possibile, in qualche caso, ingannare il programma, ma i miglioramenti rispetto a GPT-3.5 sono sensibili.