La corsa all’intelligenza artificiale non mostra segni di rallentamento, ma le nuove evidenze sollevano una questione cruciale: quanto è realmente affidabile l’AI che le aziende stanno adottando? Una nuova ricerca globale commissionata da SAS a IDC mette in luce un divario significativo tra la percezione di fiducia e le misure concrete per garantire la sicurezza e la governance dei sistemi di AI.
Il paradosso della fiducia nella GenAI
Secondo il rapporto IDC Data and AI Impact Report: The Trust Imperative, i leader di business e IT ripongono oggi più fiducia nella Generative AI rispetto a qualsiasi altra forma di intelligenza artificiale. Quasi la metà degli intervistati (48%) dichiara “completa fiducia” in questa tecnologia, mentre solo il 18% afferma lo stesso riguardo all’AI tradizionale, come il machine learning, che pure risulta più consolidata, spiegabile e matura.
Questo paradosso è spiegato dalla maggiore familiarità e interattività offerta dai sistemi generativi: tecnologie percepite come vicine e intuitive, anche quando il livello di trasparenza e accuratezza non è garantito. Come osserva Kathy Lange, Research Director di IDC, “la GenAI è considerata affidabile, ma è davvero degna di fiducia se le imprese non applicano adeguate misure di governance e protezione?”.
Il costo di trascurare la governance
La ricerca rivela che solo il 40% delle organizzazioni ha investito in sistemi di AI affidabili basati su principi di trasparenza, etica e governance. Eppure, i dati dimostrano che chi adotta pratiche di AI responsabile ha il 60% di probabilità in più di raddoppiare il ritorno sull’investimento dei progetti di intelligenza artificiale.
Ciononostante, l’approccio alla governance resta marginale: appena il 2% delle imprese intervistate indica lo sviluppo di framework specifici come priorità e meno del 10% sta lavorando a policy strutturate di AI responsabile. La conseguenza è un utilizzo esteso ma poco regolato che rischia di ridurre i benefici economici e amplificare i rischi reputazionali e operativi.
Nuove tecnologie e nuove preoccupazioni
La fiducia maggiore va oggi alle tecnologie emergenti: oltre alla GenAI, anche l’Agentic AI raccoglie interesse (33% di fiducia totale), mentre l’AI quantistica comincia a farsi spazio nonostante le applicazioni concrete siano ancora limitate. Il 26% degli executive dichiara di avere piena fiducia in questa tecnologia, a testimonianza di un entusiasmo che spesso precede la maturità delle soluzioni.
Accanto a queste aspettative, rimangono forti le preoccupazioni: il 62% degli intervistati cita la privacy dei dati come principale area di rischio, seguita da trasparenza, dimostrabilità dei modelli (57%) e utilizzo etico (56%).
Il sondaggio condotto su oltre 2.300 professionisti in cinque aree geografiche individua tre ostacoli principali al successo delle implementazioni di AI: infrastrutture dati deboli, scarsa governance e mancanza di competenze. Il 49% delle imprese lamenta sistemi dati frammentati o ambienti cloud non ottimizzati, il 44% indica carenze nei processi di governance e il 41% sottolinea la scarsità di specialisti qualificati.
La difficoltà di accedere a fonti di dati rilevanti (58%), insieme alle problematiche di privacy e qualità dei dataset, rallenta la capacità di trasformare i progetti di AI in risultati concreti e misurabili.