L’antitrust britannico detta le regole per arginare i rischi dell’AI
La Competition and Markets Authority (Cma) ha pubblicato un documento in cui elenca sette principi utili per tutelare consumatori e aziende da rischi e distorsioni del mercato.
Pubblicato il 19 settembre 2023 da Valentina Bernocco

Trasparenza, accessibilità, responsabilità: sono alcuni dei principi che in Regno Unito dovranno regolare l’intelligenza artificiale, il suo sviluppo e utilizzo. Dopo la definizione dell’AI Act (Artificial Intelligence Act, attualmente ancora non in vigore ma già delineato da Commissione e Parlamento Europeo) dell’Unione Europea, altre autorità regolatorie e istituzioni al di fuori dell’Ue stanno lavorando per mettere dei paletti all’intelligenza artificiale, in particolare all’AI generativa. La Competition and Markets Authority (Cma), ovvero l’ente di tutela antitrust britannico, ha appena pubblicato un documento che elenca sette principi da rispettare affinché le applicazioni di AI non rechino danno a persone, aziende e società.
Nel dettaglio, il primo dei principi tracciati dalla Cma è l’accountability: le aziende che sviluppano e distribuiscono modelli fondativi (foundational model, come GPT-4 o Bard), come OpenAI e Alphabet, devono essere considerate responsabili dei risultati che tali tecnologie producono. Quindi anche, per esempio, di eventuali risposte errate fornite da un chatbot o di eventuali pregiudizi veicolati dall’applicazione finale. Il secondo principio è quello dell’accesso, che dev’essere garantito almeno per gli “input chiave” dei modelli (quindi dati di addestramento e processori), senza “restrizioni non necessarie”.
Il terzo principio è la varietà dei modelli di business con cui la tecnologia viene proposta: devono essere sia aperti, quindi basati su open source e collaborazione, sia chiusi. In quarto luogo, dev’esserci per le aziende clienti una sufficiente scelta sulle modalità di utilizzo dei modelli fondativi. Quinto punto, dev’essere garantita anche una sufficiente flessibilità di utilizzo, ovvero la possibilità di passare da un modello all’altro o di usarne più di uno in contemporanea, per diverse esigenze. Per quanto riguarda le politiche commerciali, esse devono basarsi su contratti equi, senza imporre offerte vincolate o pratiche anticoncorrenziali.
L’ultimo principio è quello della trasparenza: consumatori e aziende devono essere correttamente informati sulle limitazioni e sugli eventuali rischi connessi ai contenuti generati dall’AI. Qui, naturalmente, si scoperchia il vaso di Pandora delle molte discussioni degli ultimi mesi sui rischi di violazione del copyright o di disinformazione, legati all’AI generativa. La Cma ha sottolineato nel suo documento che solo con una piena trasparenza su tali contenuti gli utenti e le aziende possono fare scelte consapevoli.
“La velocità con cui l’AI sta diventando parte della vita quotidiana di persone e aziende è drammatica”, ha commentato la Ceo della Competition and Markets Authority, Sarah Cardell. “Questa tecnologia ha davvero il potenziale di mettere il turbo alla produttività e di semplificare milioni di azioni quotidiane, ma non dobbiamo dare per scontato che avrà esiti positivi. Permane un rischio reale che l’utilizzo dell’AI si sviluppi in modo tale da minare la fiducia dei consumatori o che venga dominato da pochi player che esercitano un potere sul mercato, impedendo all’economia di beneficiare pienamente dell’AI”.
Nei prossimi mesi la Cma britannica lavorerà insieme ad altri enti e parte interessate, dentro e fuori dal Regno Unito, per meglio definire questi principi. Il prossimo aggiornamento del documento sarà presentato nel 2024.
Il lavoro del Parlamento britannico
Intanto il parlamento britannico si sta muovendo sul tema e sembra orientato su un approccio meno restrittivo rispetto a quello dell’AI Act. In un white paper presentato lo scorso marzo dalla Segreteria di Stato per la Scienza, l’Innovazione e la Tecnologia si elencano cinque principi generali per l’intelligenza artificiale: la sicurezza (digitale e materiale), la trasparenza unita a explainability, l’equità, la responsabilità (accountability e governance) e infine la contestabilità unita a possibilità di rimedio a eventuali danni causati dall’uso dell’AI. Il white paper servirà da base al Parlamento per elaborare future proposte di legge.
Non si fa accenno a divieti per applicazioni ad alto rischio, come quelle di riconoscimento biometrico da immagini catturate in luoghi pubblici, che sono espressamente vietate nell’AI Act. Si è scelto, al contrario, di fissare le regole di fondo senza dare definizioni sulle singole tecnologie (come il riconoscimento facciale o i large language model) perché il ritmo del cambiamento è impetuoso e le leggi, se troppo specifiche, rischiano di diventare obsolete molto rapidamente.
(In apertura, immagine di rawpixel.com su Freepik)
ANTITRUST
- Multa antitrust da 376 milioni di euro per il “cold case” di Intel
- L’antitrust britannico detta le regole per arginare i rischi dell’AI
- Antitrust contento, Google agevola la portabilità dei dati
- Doppio semaforo verde per l’operazione Broadcom-Vmware
- Antitrust e acquisizioni, l’Ue indaga sul caso Adobe-Figma
NEWS
- Cybersicurezza, solo il 44% delle Pmi europee aumenterà il budget
- Hwg-Sababa, managed security e governance in soluzione unica
- Paessler acquisisce Itps Group per potenziare il monitoraggio
- I chatbot si preparano a invadere i social, con Meta AI e "personaggi"
- I servizi di cloud computing di Akamai trovano casa a Milano