L’intelligenza artificiale è una grande promessa nel campo della salute e delle biotecnologie, e in particolare le attività di studio e sviluppo di nuovi farmaci. Ma agli algoritmi si legano anche giustificate preoccupazioni ed esigenze di trasparenza e spiegabilità (explainability) ancor più forti rispetto ad altri campi di applicazione dell’AI. Ce ne parlano RJ Geukes Foppen e Vincenzo Gioia, fondatori di Explainambiguity, un think tank dedicato all’integrazione responsabile dell’AI nell’industria, nelle Life Sciences e in sanità.
Vincenzo Gioia e RJ Geukes Foppen, fondatori di Explainambiguity
L’intelligenza artificiale ha trasformato la scoperta di farmaci, accelerando l’identificazione di nuovi bersagli terapeutici e la previsione dell’efficacia dei composti. Tuttavia, la natura opaca dei modelli black box e la presenza di bias nei dati minano la validità e l’uso dei risultati nella pratica clinica. L’intelligenza artificiale spiegabile (Explainable Artificial Intelligence, xAI) risponde a questa sfida traducendo le previsioni opache in strumenti di analisi e controllo scientifici, rafforzando la fiducia nei processi decisionali. I modelli di AI usati per predire le proprietà dei farmaci funzionano come “scatole nere” che forniscono risultati senza spiegare il ragionamento sottostante.
La xAI affronta il problema sviluppando strumenti e metodi che rendono interpretabile il percorso logico intrapreso dal modello. L’applicazione concreta di questi strumenti consente di progettare farmaci in modo più razionale, prevedendo quali modifiche migliorano la probabilità che un farmaco superi gli studi clinici. Inoltre offre la capacità di identificare rischi potenziali nelle fasi iniziali della ricerca, evitando fallimenti costosi più avanti nel processo di sviluppo.
Le regole sull’AI in sanità
A livello europeo, le giurisdizioni seguono approcci differenti nella regolamentazione dell’intelligenza artificiale. L'AI Act europeo, la cui applicazione è prevista dal 2026, introduce requisiti di trasparenza e accountability, classificando come ad “alto rischio” i sistemi utilizzati in ambito sanitario e farmaceutico fatta eccezione, come osservato dall'Efpia (European Federation of Pharmaceutical Industries and Associations), per i sistemi utilizzati solo per la ricerca scientifica, che sono esclusi purché non siano coinvolti nella gestione clinica.
Molti strumenti di drug discovery in fase iniziale non rientrano, quindi, nella classificazione ad alto rischio, grazie alla distinzione tra ricerca e applicazioni cliniche. In Italia, oltre al Codice dell’Amministrazione Digitale e alle linee guida AgID, quest’anno è stata approvata la legge 132, considerata il primo AI Act nazionale. La legge rafforza il principio di intelligenza artificiale umano-centrica e integra la regolamentazione europea con l’obiettivo di bilanciare innovazione e tutela dei diritti fondamentali, ponendo particolare attenzione ai settori sanità, lavoro e Pubblica Amministrazione.
Il rischio di bias
Nel settore farmaceutico la trasparenza è fondamentale per consentire all’uomo di comprendere il ragionamento alla base delle raccomandazioni dei sistemi di AI e per individuare eventuali bias algoritmici. Per avere una vera trasparenza dei modelli è necessario che gli operatori d'intelligenza artificiale general-purpose rendano pubblici i dati di addestramento, le metodologie adottate e i fattori che determinano gli output dei loro modelli. L’assenza di pregiudizio nei dataset di addestramento è una sfida critica per l'affidabilità dei modelli di AI biomedici, in special modo per i modelli generativi e per gli LLM. Se questi modelli apprendono da dataset estesi ma imperfetti e non dispongono di meccanismi intrinseci per correggere le distorsioni, il rischio di bias sistemici è molto alto e può arrivare a alla sottorappresentazione di ampi gruppi demografici.
Lo scenario si complica in presenza di frammentazione dei dati tra istituzioni e gruppi di ricerca o sovrarappresentazione di specifiche popolazioni nella letteratura medica che può dare origine a modelli con validità predittiva limitata e una scarsa affidabilità delle previsioni su efficacia e sicurezza dei farmaci. In condizioni di scarsa trasparenza anche previsioni coerenti possono essere fuorvianti se basate su pattern distorti da pregiudizio di pubblicazione o sottorappresentazione demografica, con conseguenze cliniche ed etiche: farmaci progettati su dati viziati rischiano di essere meno efficaci in gruppi sottorappresentati.
Correggere le distorsioni
Le imprese farmaceutiche, i fornitori tecnologici e i gestori di dati hanno un ruolo chiave nel contrasto ai bias. In questi casi le possibili strategie di mitigazione passano per una raccolta dati basata su stratificazione demografica, la generazione di dati sintetici ma rappresentativi per compensare dataset sbilanciati, audit algoritmici per identificare performance differenziali tra gruppi, tecniche di debiasing (riconoscimento e riduzione del pregiudizio) post hoc per correggere distorsioni nei modelli addestrati.
Oltre all’applicazione di queste tecniche, la xAI si pone come ulteriore strumento utile a individuare, analizzare e correggere i bias nei dataset, a comprendere quali variabili influenzano le previsioni e quali generano eventuali distorsioni. Nel contesto della scoperta di farmaci, la xAI consente di esplorare i segnali biologici e clinici che guidano le previsioni, abilitando interventi correttivi e audit sistematici. Le metodologie di preprocessing dei dati e la combinazione di dataset complementari e framework xAI per il monitoraggio continuo migliorano la generalizzabilità e la robustezza dei modelli, assicurando che le evidenze generate mantengano validità e coerenza.
L’occasione da cogliere
L'adozione dell'intelligenza artificiale nella scoperta di farmaci offre l'opportunità di correggere distorsioni con granularità e velocità superiori rispetto ai metodi tradizionali. La xAI consente di riconoscere quando le previsioni favoriscono determinati sottogruppi e di intervenire in modo mirato con strategie di retraining, integrazione di dati sottorappresentati e validazione comparativa. La xAI è essenziale per garantire trasparenza, equità e tracciabilità nei processi automatizzati, comunicando le inferenze in un linguaggio comprensibile agli stakeholder (clinici, regolatori, pazienti) e assicurando la conformità normativa.
La fiducia è il fondamento essenziale per sfruttare il vero potenziale dell'AI nella scoperta di farmaci. Con strumenti di spiegabilità avanzati, dataset rappresentativi e una governance etica robusta, l'AI è un catalizzatore per l'equità globale, accelerando lo sviluppo terapeutico e correggendo le disuguaglianze. La sua promessa si realizza quando ogni previsione è trasparente e ogni decisione tracciabile. È un'opportunità unica per dimostrare che la tecnologia serve per l'efficienza e l'equità a pari merito. Il nostro percorso è chiaro: garantire che, dall'algoritmo al paziente, ogni passaggio sia comprensibile e giustificabile, inaugurando una nuova era di medicina fidata e accessibile a tutti.