Le autorità regolatorie internazionali stanno ridefinendo il perimetro di utilizzo dell’intelligenza artificiale nel settore Life Sciences. Il rilascio congiunto dei principi guida da parte di EMA e FDA mostra la loro convergenza su di un punto chiave: non è più sufficiente dimostrare che l’AI funziona, ma è necessario dimostrare che opera in modo affidabile, tracciabile e governato.
Queste linee guida non introducono nuove norme vincolanti, ma stabiliscono uno standard condiviso di “buone pratiche” che impatta direttamente lo sviluppo dei farmaci, dagli studi clinici fino al monitoraggio post-marketing. Per le aziende, significa dover ripensare l’adozione dell’AI non come sperimentazione tecnologica, ma come componente strutturale dei processi regolati.
Dal potenziale tecnologico al controllo operativo
Negli ultimi anni, molte organizzazioni hanno utilizzato l’AI per attività a basso rischio, come la sintesi documentale o l’estrazione di dati. Tuttavia, la continua integrazione nei processi porta a un punto in cui i risultati dell’AI iniziano a influenzare evidenze regolatorie e decisioni operative.
In questo scenario, la semplice efficacia tecnica non basta più: le aziende devono garantire coerenza d’uso, supervisione umana e tracciabilità nel tempo; elementi che diventano essenziali per superare audit e ispezioni. Il cambiamento è profondo perché si passa da una logica sperimentale a un modello industriale e ripetibile, in cui ogni utilizzo dell’AI deve essere giustificabile e verificabile.
Uno degli elementi chiave introdotti dai principi EMA–FDA, infatti, è il concetto di contesto d’uso. L’AI non viene più valutata in astratto, ma in relazione all’impatto che genera nei processi. La stessa tecnologia può avere implicazioni completamente diverse a seconda di dove e come viene applicata.
Un sistema utilizzato per attività interne di supporto ha un profilo di rischio limitato. Lo stesso sistema, se impiegato per identificare segnali di sicurezza o supportare decisioni cliniche, richiede controlli molto più stringenti. Questo approccio obbliga le aziende a mappare i casi d’uso in funzione del rischio e a definire chiaramente responsabilità, limiti operativi e livelli di supervisione.
La fiducia si costruisce nel workflow, non nel modello
Un altro cambio importante riguarda il focus della governance. Non è più il modello AI in sé a determinare l’affidabilità, ma il contesto operativo in cui è inserito. La fiducia si sposta dal modello al workflow, includendo dati, versioning, controlli e audit trail.
Per il business, questa distinzione è essenziale. Integrare l’AI direttamente nei sistemi regolati consente di ereditare controlli già esistenti, come autorizzazioni, tracciabilità e gestione dei processi, ma mantenere l’AI come strato esterno comporta inefficienze operative e rischi crescenti, soprattutto quando si scala. L’evoluzione continua dei modelli, dei prompt e delle fonti dati introduce una variabilità che, in contesti regolati, diventa un rischio sistemico. La gestione del ciclo di vita dell’AI diventa quindi un requisito imprescindibile, non più un elemento accessorio.
Questo implica adottare pratiche strutturate di versioning, monitoraggio delle performance, gestione del cambiamento e responsabilità decisionale. Per le imprese, si tratta di un impatto diretto sull’organizzazione: queste attività non possono essere delegate esclusivamente ai team di data science, ma devono coinvolgere qualità, compliance e governance IT.
Un quadro regolatorio sempre più convergente
I principi EMA–FDA si inseriscono in un contesto più ampio di evoluzione normativa. In Europa, l’AI Act introduce obblighi sempre più concreti, mentre negli Stati Uniti le linee guida FDA sui sistemi elettronici rafforzano il tema dell’affidabilità dei dati. Il messaggio alla base, però, è principalmente uno e dice che quando l’AI contribuisce alla generazione di evidenze, la qualità del sistema e del record elettronico diventa centrale per il business e per la compliance. Non si tratta di rallentare l’innovazione, ma di renderla sostenibile e scalabile.
Per le aziende Life Sciences, quindi, il vero vantaggio competitivo non sta nella quantità di progetti AI avviati, ma nella capacità di integrarli in ambienti regolati. Chi riuscirà a trasformare l’AI in una capability governata potrà accelerare lo sviluppo e ridurre il rischio operativo. Parallelamente, cresce la pressione sui vendor perché non basta più offrire funzionalità AI: è necessario dimostrare come queste si integrano nei workflow, quali dati generano, come vengono versionate e quali elementi sono investigabili. Tutti aspetti che rischiano di ribaltare completamente l’approccio tenuto finora da molte piattaforme.