• IL NOSTRO NETWORK:
  • The Innovation Group
  • Technopolis
  • ictBusiness.it
logo
logo
  • News
  • Focus
  • Eccellenze.it
  • Strategie di Canale
  • Ti trovi in:
  • Home Page
  • Focus

Intelligenza artificiale, nuove regole per arginare i rischi

Uno studio di Bcg evidenzia nelle aziende un diffuso bisogno di regole per un uso responsabile dell’AI. Molti, però, non sono pronti a gestirle.

Pubblicato il 03 maggio 2023 da Valentina Bernocco

Si parla ancora di intelligenza artificiale generativa, mentre l’Europa recupera il ritardo sull’AI Act e mentre a Hollywood va in scena la protesta degli sceneggiatori preoccupati di perdere il lavoro a causa della “macchina del plagio”, di applicazioni che in futuro potrebbero scrivere al loro posto testi per il cinema e la Tv. Il recente “semaforo verde” del Garante della privacy italiano a OpenAI è un segnale di ragionevolezza, è la consapevole necessità di non poter censurare tecnologie che stanno prendendo piede in tutto il mondo e in molti mercati. 

Di fronte alle sorprendenti capacità di ChatGPT, Midjourney e altre applicazioni di AI generativa, un po’ ovunque sta emergendo il bisogno di regole chiare che mettano dei paletti e tutelino sicurezza, privacy e proprietà intellettuale. E se addirittura uno tra i padri del deep learning, l’informatico Geoffrey Hinton, teme future guerre scatenate da decisioni prese dall’uomo, negare l’esistenza di qualsiasi rischio non sembra più possibile. Intanto a Washington la vicepresidente Kamala Harris ha convocato alla Casa Bianca, per parlare di intelligenza artificiale, gli amministratori delegati di Microsoft e Alphabet e delle due (ex) startup su cui queste aziende hanno investito, cioè rispettivamente OpenAI e Anthropic.

Il bisogno di regole sull’utilizzo dell’AI emerge anche da uno studio di Bcg, “Digital Acceleration Index”, condotto a livello internazionale su 2.700 dirigenti d’azienda. Tra gli europei intervistati, il 35% dei dirigenti ha detto che nuove regole sono necessarie per adottare l’AI in modo etico e responsabile, e in Italia la percentuale sale al 49%. Inoltre il 34% delle aziende italiane incluse nel campione ha già al proprio interno una figura responsabile dell’intelligenza artificiale (chief AI).

Naturalmente lo scenario è immaturo e molte  imprese ancora non sanno bene come muoversi di fronte agli ultimi sviluppi tecnologici e normativi. Solo il 28%, sul totale del campione, ha detto che la propria organizzazione è pronta a gestire le nuove regole sull’AI, ma ci sono aree di maturità. In Italia ben l’89% dei dirigenti del settore energetico sostiene che l’azienda sia già pronta, mentre nell’ambito finanziario la quota è 87,5%, nell’informatica è 83%.

L’AI Act europeo, in via di approvazione, pone limiti e obblighi alle applicazioni di intelligenza artificiale in base ai potenziali rischi, violazioni di privacy e discriminazioni che potrebbero derivarne (la sorveglianza biometrica di massa e la valutazione del credito basata sul social scoring, per esempio, sono vietate). Per le aziende che trasgrediscono sono previste sanzioni pecuniarie fino a un massimo del 6% dei ricavi annui.

 

 

(Immagine di rawpixel.com su Freepik; immagine di apertura di starline su Freepik)

 

A detta degli analisti di Bcg, un buon modo per affrontare il problema è concretizzare all’interno dell’azienda un programma di Intelligenza Artificiale Responsabile (RAI), fondato su principi di responsabilità, trasparenza, privacy, sicurezza, equità inclusione. Questi valori devono essere preservati sia nelle attività di training degli algoritmi sia nello sviluppo delle applicazioni e nel loro utilizzo. 

“Le iniziative RAI possono rappresentare il quadro di riferimento sia per chi crea strumenti di intelligenza artificiale che per chi li utilizza, aiutando entrambe le parti a confrontarsi positivamente con la regolamentazione”, ha commentato Enzo Barba, partner di Bcg X, divisione della società di  consulenza specializzata sull’AI. “Questo aspetto è rilevante soprattutto per le aziende italiane che si trovano ad operare in un contesto regolamentare molto attento alle dinamiche di sviluppo delle nuove tecnologie e del loro impatto sulla privacy degli utenti”.


C’è da dire che i principali colossi dell’informatica e del digitale, aziende del calibro di Microsoft, Alphabet o Accenture, in quanto sviluppatori e vendor di intelligenza artificiale hanno definito da tempo le proprie linee guida sull’AI responsabile. Lo scenario è però in rapida trasformazione, così come lo sono i rischi di fronte alle ultime evoluzioni dei large language model e alla loro rapida diffusione, grazie ad app gratuite per l’utente finale e a servizi disponibili per gli sviluppatori tramite cloud. 

 
Tag: corporate responsability, intelligenza artificiale, openai, chatGPT, Ai generativa

CORPORATE RESPONSABILITY

  • Intelligenza artificiale, nuove regole per arginare i rischi
  • Nel "new normal" la tecnologia video dev'essere responsabile
  • Obiettivi Esg, ServiceNow aiuta le aziende a raggiungerli
  • Un mondo più etico e sostenibile grazie alla tecnologia (anche in Italia)
  • Aziende più etiche: vince Microsoft, grandi assenti Apple e Google

FOCUS

  • Spindox, radicati nel presente ma proiettati al quantum
  • Gdpr e Pubblica Amministrazione, la compliance non è facile
  • Cybercrimine, carenza di competenze, AI: tre rischi legati fra loro
  • Da Nvidia superchip e supercomputing per una nuova era del calcolo
  • L’attenzione di Extreme è tutta sul monitoraggio delle reti
Seguici:
IctBroadcast

Tweets by ictBusinessIT

Top news
  • Più lette
  • Ultime pubblicate
Focus su Sase e Zero Trust per Cradlepoint con l’acquisto di Ericom
OpenText spinge l’information management verso il cloud
Paessler estende la visibilità con l’acquisizione di Qbilon
Con il 5G arriveranno vantaggi anche per l'ambiente
Servizi e iPhone tengono a galla le vendite di Apple
Analytics e intelligenza artificiale migliorano la personalizzazione
BlackBerry riflette sul futuro e valuta eventuali spin-off
LinkedIn pianifica licenziamenti ma anche nuove assunzioni
Intelligenza artificiale, nuove regole per arginare i rischi
Sap e Siemens contro il Data Act, un rischio per la competitività?
Impresoft Group allarga l’offerta per l’industria con Open-Co
GenerativeShield, un intermediario fra utente e rischi dell’Ai
Qualcomm accelera sui veicoli connessi con l’acquisto di Autotalks
Personalizzato e omnicanale il viaggio con Swarovksi e Levi's
Siemens Xcelerator velocizza la transizione verso i digital twin
Workday, focus sulle medie imprese con un nuovo country manager
Alert senza falsi positivi, Forescout Xdr distribuito da Ingecom
Cyberattacco da record su Capita: costerà fino a 20 milioni di sterline
Trimestre in calo per Qualcomm, si punta sulla diversificazione
Gruppo Olidata guarda al futuro con una doppia acquisizione
Dati di sicurezza riuniti in un solo luogo con Amazon Security Lake
Vendite di Pc in calo del 29%, Hp continua a guardare al futuro
La piattaforma Sgbox si allarga con la gestione degli incidenti
Phishing endemico, ma è quello mirato a fare i maggiori danni
Il cloud ibrido ispira le evoluzioni software di Infinidat
Investimenti Ict in crescita per un’azienda italiana su due
Nutanix in buon equilibrio tra crescita e profittabilità
AI, Baidu rincorre Microsoft e Google: Ernie pronto al debutto
Anche la rete è ormai diventata un servizio per Hpe Aruba
Assistenti virtuali: enti pubblici, finanza e utility fanno da traino
Chi siamo
Contatti
Privacy
Informativa Cookie
News
Focus
Eccellenze.it
Strategie di canale
The Innovation Group
Technopolis
indigo logo tig logo
© 2023 The Innovation Group, via Palermo 5, 20121 Milano | P.IVA 06750900968