01/12/2023 di Valentina Bernocco

Una super-AI pericolosa e rivoluzionaria? Per Brad Smith è lontana

Il presidente di Microsoft ha escluso la possibilità che una nuova tecnologia di General Artificial Intelligence dirompente possa essere lanciata nel giro di pochi anni.

intelligenza-artificiale-rivoluzionaria-microsoft.jpg

Che cosa succederebbe, o forse che cosa succederà, quando l’AI generativa si unirà ad altre capacità di intelligenza artificiale per creare la tanto teorizzata Artificial General Intelligence? Di intelligenza artificiale “generale” o “forte”, capace di svolgere in modo autonomo attività e di ragionare come un cervello umano, si discute da ben prima che ChatGPT irrompesse sulla scena, dando il via a una corsa allo sviluppo di nuovi modelli fondativi e applicazioni che trovano risposte e generano testi, immagini e codice software. 

Tuttavia la discussione si è recentemente ravvivata dopo le indiscrezioni di Reuters secondo OpenAI starebbe lavorando allo sviluppo di un modello capace di risolvere problemi matematici. Il progetto, noto con il nome in codice Q* (pronuciato “Q star”) sarebbe stato segnalato dagli stessi ricercatori di OpenAI al consiglio di amministrazione dell’azienda, messo in guardia del potenziale pericolo. I dettagli scarseggiano, ma si è speculato che sia stata questa la ragione, o una delle ragioni, del repentino licenziamento di Sam Altman (poi rientrato in azienda a distanza di due giorni).

Ora una voce autorevole di Microsoft butta acqua sul fuoco delle preoccupazioni: a detta del presidente dell’azienda di Redmond, Brad Smith, è escluso che una “super intelligenza artificiale” possa essere creata nel breve periodo. “Non c’è assolutamente alcuna probabilità che vedremo la cosiddetta Artificial General Intelligence, in cui i computer sono più abili delle persone, nel giro di dodici mesi. Ci vorranno anni, se non molti decenni, ma credo comunque che già oggi ci si debba focalizzare sulla sicurezza”, ha dichiarato Smith alla stampa britannica. Ciò di cui abbiamo davvero bisogno, ha detto, sono dei “freni di emergenza”, come quelli di un ascensore o di un autobus, controllati dalle persone.

Il presidente di Microsoft ha anche smentito le voci di un legame tra la scoperta” del progetto Q* da parte del Cda di OpenAI e il licenziamento di Sam Altman. “Non penso proprio che sia stato questo il caso”, ha detto Smith. “Credo che ci sia stata ovviamente una divergenza tra il board e altri, ma che non riguardasse una preoccupazione di questo tipo”.

Brad Smith, vice chair e presidente di Microsoft

Brad Smith, vice chair e presidente di Microsoft

Tra scrupoli e legge del mercato

L’estate scorsa lo stesso presidente di Microsoft si era pronunciato sul tema dei rischi legati all’AI: intervistato da Cnbc, Brad Smith aveva sottolineato che qualsiasi tecnologia ha il potenziale di diventare uno strumento per il bene oppure un’arma, e che è necessario che l’AI “rimanga soggetta al controllo umano”, così che il suo sviluppo possa essere eventualmente rallentato o messo in pausa. A distanza di qualche settimana, una lettera aperta firmata da migliaia di ricercatori, professori universitari e imprenditori (tra cui Elon Musk e Steve Wozniak) chiedeva sostanzialmente questo, di fermare per qualche mese lo sviluppo dei modelli fondativi più sofisticati, in attesa di comprenderne meglio i potenziali impatti.

Nella lettera si sottolineava il rischio di “perdere controllo della nostra civiltà”, delegando all’AI decisioni cruciali e aprendo le porte alla propaganda e alla disinformazione. Curiosamente, quello stesso Elon Musk firmatario della petizione ha poi elogiato il debutto su X (la vecchia Twitter) di un nuovo chatbot alternativo a ChatGPT, attualmente ancora in beta e disponibile per un ristretto gruppo di utenti. L’esempio di Elon Musk mostra come, nel campo dell’AI così come altrove, spesso le logiche della concorrenza (e dunque dell’interesse economico) prevalgano sulle dichiarazioni di principio.

 

scopri altri contenuti su

ARTICOLI CORRELATI