OpenAI pensa al “metodo Wikipedia” per l’intelligenza artificiale
La società di San Francisco immagina un diverso approccio, collettivo e democratico, per la definizione delle policy e per controllar e i rischi dell’AI generativa.
Pubblicato il 23 maggio 2023 da Valentina Bernocco

Dopo aver creato ChatGPT, ora OpenAI immagina un’intelligenza artificiale collettiva, frutto del contributo di molti cervelli (umani), opinioni, conoscenze e punti di vista. Una “Wikipedia dell’AI”, cioè una piattaforma che non solo si compone di innumerevoli voci ma che sottopone ogni contenuto alla verifica collettiva. Questa è la strategia annunciata da Greg Brockman, presidente e cofondatore della società di San Francisco diventata sinonimo di large language model e chatbot di intelligenza artificiale generativa.
Ospite della conferenza AI Forward, in corso proprio a San Francisco, Brockman ha parlato di come la sua azienda stia cercando di assecondare i principi di intelligenza artificiale responsabile e i regolamenti che cominciano a tentare di arginare i potenziali rischi. Che OpenAI stia scegliendo la strada della collaborazione lo si era già visto in Italia, con le modifiche (trasparenza sull’uso dei dati e diritto al recesso) introdotte in ChatGPT per soddisfare il Garante della privacy.
Un processo decisionale democratico
Dal palco della conferenza e successivamente in un blog post, il presidente della ex startup diventata miliardaria ha detto che i governi del mondo dovrebbero agire in modo coordinato per assicurare che l’AI venga sviluppata adottata in modo sicuro (il che equivale a dire che la responsabilità non spetta totalmente ai vendor). Inoltre ha caldeggiato l’idea di un patto globale che possa limitare, su base annua, la crescita delle capacità dell’intelligenza artificiale di frontiera. Un organismo come l’Agenzia Internazionale per l'Energia Atomica, per esempio, potrebbe fissare restrizioni e obblighi di compliance in merito alla sicurezza e alla potenza di calcolo utilizzabile per allenare gli algoritmi.
Su quale sarà il futuro di OpenAI, Brockman ha suggerito l’idea di un approccio simile a quello di Wikipedia, nel quale persone rappresentative di diverse culture e visioni del mondo si uniscono e trovano un accordo sulle voci che entrano a far parte dell’enciclopedia. Sul tema delle policy dell’intelligenza artificiale serve un approccio di questo tipo, collettivo e democratico. “Non ce ne stiamo seduti in Silicon Valley convinti di poter scrivere le regole per tutti”, ha aggiunto il presidente di OpenAI. “Stiamo iniziando a pensare a procedure decisionali democratiche”.
Greg Brockman, presidente e cofondatore di OpenAI (immagine tratta da LinkedIn)
La “superintelligenza” non può essere fermata
Il tema dei potenziali pericoli dell’AI generativa è molto attuale e tra i preoccupati non mancano i punti di vista autorevoli. Come quello di Geoffrey Hinton, uno tra i padri del deep learning: l’ormai ex ricercatore di Google recentemente ha espresso preoccupazioni forti sui pericoli dell’AI, immaginando un futuro in cui essa sarà così evoluta e autonoma da non poter più essere controllata. Altri timori legati all’AI generativa, emersi da sondaggi e studi di settore, riguardano il potenziale impatto sull’occupazione, l’indebolimento del diritto d’autore e la disinformazione basata su deepfake.
Tutte preoccupazioni lecite, che non possono essere smentite del tutto nemmeno dalle aziende che oggi fanno a gara per integrare l’AI generativa nei propri prodotti e servizi. Ma secondo OpenAI gli sviluppi dell’intelligenza artificiale non possono essere fermati, per due motivi. Innanzitutto perché racchiudono molti benefici in diversi ambiti, per l’istruzione, il lavoro, l’economia, la qualità della vita. In secondo luogo, perché sarebbe “rischioso e difficile” interrompere la creazione di quella che Brockman chiama “superintelligenza”.
Il costo dello sviluppo calerà di anno in anno, gli attori presenti sul mercato continueranno a moltiplicarsi e inoltre l’AI è ormai “parte integrante del percorso tecnologico in cui ci troviamo”. Fermare la superintelligenza richiederebbe un’azione repressiva, un “regime di sorveglianza globale”, scrive Brockman, e non è detto che questo basterebbe ad arginarla. Quindi si deve andare avanti, ma nel modo giusto.
INTELLIGENZA ARTIFICIALE
- I chatbot si preparano a invadere i social, con Meta AI e "personaggi"
- Ibm semplifica il reporting Esg con il Natural Language Processing
- Oracle rilancia su database, AI generativa e alleanze in cloud
- ChatGPT fa un altro salto: ora sa anche ascoltare, vedere e parlare
- Con Mexedia On, l’AI si costruisce un mattoncino alla volta
NEWS
- Paessler acquisisce Itps Group per potenziare il monitoraggio
- I chatbot si preparano a invadere i social, con Meta AI e "personaggi"
- I servizi di cloud computing di Akamai trovano casa a Milano
- Riverbed aiuta a misurare e ridurre i consumi degli endpoint
- Ibm semplifica il reporting Esg con il Natural Language Processing