intelligenza artificiale

Eli Lilly, farmaci con AI: ma chi controlla davvero la ricerca



Indirizzo copiato

Accordo storico tra big pharma Eli Litt e Insilico Medicine per lo sviluppo di nuovi farmaci progettati con AI. Ma se i sistemi di intelligenza artificiale iniziano a guidare la scoperta di nuovi farmaci, diventa inevitabile interrogarsi su ciò che li guida a loro volta

Pubblicato il 1 apr 2026

Tania Orrù

Data Protection, Compliance & Digital Governance Advisor



ai farmaci
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Eli Lilly, tra i protagonisti globali del settore farmaceutico anche grazie al successo dei farmaci anti-obesità, ha annunciato un accordo con la biotech Insilico Medicine per lo sviluppo di nuovi farmaci progettati con AI. Il valore dell’intesa è di circa 2,7 miliardi di dollari e prevede l’utilizzo di piattaforme di AI generativa capaci di identificare target terapeutici e progettare molecole in modo autonomo.

Non è quindi una partnership come le altre: per la prima volta, in modo esplicito, una big pharma anziché acquisire un farmaco, compra direttamente l’accesso a un sistema di AI generativa in grado di generarne moltissimi.

Cosa rivela l’accordo Eli Lilly e Insilico su ai e farmaci

L’annuncio dell’accordo tra Eli Lilly e Insilico Medicine (società biotech fondata nel 2014 che utilizza piattaforme di intelligenza artificiale generativa per identificare target terapeutici e progettare nuove molecole, con l’obiettivo di accelerare e automatizzare parte del processo di scoperta dei farmaci) potrebbe, a una prima lettura, sembrare l’ennesima operazione di collaborazione tra una grande azienda farmaceutica e una società tecnologica emergente. Il valore complessivo dell’intesa, stimato fino a circa 2,7 miliardi di dollari, è certamente rilevante, ma sostanzialmente allineato ad altre operazioni nel settore.

Lilly verserà una quota iniziale relativamente contenuta, circa 115 milioni di dollari, mentre la parte più consistente del valore sarà distribuita nel tempo sotto forma di pagamenti legati ai risultati e royalties sulle vendite. Pur utilizzando uno schema tipico delle collaborazioni nel biotech, dove il rischio viene distribuito lungo l’intero ciclo di sviluppo del farmaco, a cambiare è l’oggetto dell’accordo.

Anziché l’acquisizione di una singola molecola promettente o di una pipeline già definita, l’oggetto dell’intesa è infatti l’accesso alla capacità di progettare farmaci attraverso sistemi di intelligenza artificiale generativa. In altre parole, Lilly sta acquistando un modo di produrre conoscenza scientifica, cioè sta comprando un processo.

Come cambia la ricerca di ai e farmaci con accordo Eli Lilly e Insilico

Per comprendere meglio la portata dell’accordo è utile osservare come si stia trasformando il rapporto tra big pharma e aziende tecnologiche. In passato, le collaborazioni si concentravano su risultati specifici: una molecola, un brevetto, una scoperta. L’azienda farmaceutica acquistava o licenziava qualcosa di definito, integrandolo nella propria pipeline.

Grazie all’accordo con Insilico, Eli Lilly ha invece acquistato l’accesso a una piattaforma, Pharma.AI, progettata per generare continuamente nuove ipotesi terapeutiche.

Come evidenziato anche da Pharmaceutical Executive, l’accordo prevede che Insilico continui a sviluppare i propri modelli, mentre Lilly otterrà diritti esclusivi sui farmaci sviluppati attraverso questi sistemi.

Una dinamica che introduce una forma di dipendenza tecnologica che non era presente nelle collaborazioni tradizionali in cui l’innovazione era interamente contenuta all’interno dell’organizzazione farmaceutica. Ora l’innovazione viene (almeno in parte) esternalizzata verso un’infrastruttura algoritmica che evolve autonomamente.

La conseguenza più rilevante è che, più la pipeline si basa su sistemi esterni, più il controllo sull’innovazione si sposta verso chi sviluppa e gestisce quei sistemi.

Quando AI e farmaci entrano nella fase creativa

Gran parte della narrazione pubblica sull’intelligenza artificiale nel settore farmaceutico si concentra sull’idea di accelerazione. L’AI, si dice, permette di analizzare grandi quantità di dati più rapidamente, individuare pattern nascosti e ridurre i tempi di sviluppo.

Si tratta però di una descrizione incompleta, in quanto le piattaforme come quelle sviluppate da Insilico sono progettate per generare nuove soluzioni, non per effettuare analisi. Attraverso modelli di tipo generativo, questi sistemi sono in grado di proporre molecole che non sono mai state sintetizzate prima, partendo da obiettivi biologici definiti.

Se finora il ruolo dell’AI era quello di supportare il ricercatore, ora è quello di intervenire nella fase creativa del processo scientifico. Il ricercatore, a sua volta, si trova sempre più spesso nella posizione di validare output prodotti da un sistema, piuttosto che generarli direttamente.

Secondo quanto riportato nella copertura mediatica dell’accordo, Insilico ha già portato diversi candidati farmaci sviluppati tramite AI nelle fasi cliniche, segno che questo modello non è più sperimentale e che sta entrando nella pratica industriale.

Tuttavia, spostare la generazione della conoscenza verso sistemi algoritmici significa anche ridefinire le modalità con cui quella conoscenza può essere compresa, verificata e contestata.

Accountability e decisioni nella ricerca algoritmica

Se l’intelligenza artificiale interviene nella definizione dei target terapeutici, nella progettazione delle molecole e persino nel design degli studi clinici, diventa inevitabile interrogarsi su chi sia responsabile delle decisioni che ne derivano.

I modelli utilizzati in questi contesti sono spesso proprietari e caratterizzati da un livello di opacità piuttosto elevato. Anche quando producono risultati efficaci, il modo in cui arrivano a tali risultati può essere difficile da ricostruire in modo trasparente.

Parallelamente, il sistema regolatorio farmaceutico continua a concentrarsi sul prodotto finale: le autorità valutano se un farmaco è sicuro ed efficace, ma non entrano nel merito dei processi algoritmici che hanno contribuito alla sua progettazione.

In tal modo si crea un’area di responsabilità incerta, dove le decisioni scientifiche diventano il risultato di una catena in cui intervengono modelli, dati, sviluppatori e utilizzatori, senza che sia sempre possibile attribuire in modo chiaro il contributo di ciascun elemento.

Finché i risultati sono positivi, questa mancanza di accountability non emerge come problema immediato; potrebbe però diventare critica nel momento in cui qualcosa non funzionasse, perché renderebbe più difficile individuare le cause e, di conseguenza, le responsabilità.

Chi orienta davvero le priorità di AI e farmaci

La narrazione sull’intelligenza artificiale nel farmaceutico smette oggi di essere rassicurante e diventa problematica o, quantomeno, scomoda.

Il controllo umano, pur formalmente presente, rischia infatti di trasformarsi in una validazione ex post di decisioni già prese altrove, dentro modelli che pochi comprendono davvero. Se la scelta di un target terapeutico, la progettazione di una molecola o la priorità di una pipeline emergono da un sistema algoritmico, il ruolo del ricercatore cambia natura e, da origine della decisione, diventa, al massimo, filtro finale.

Una trasformazione sottile, quasi impercettibile, ma con implicazioni profonde, perché dovremmo quindi chiederci chi (o cosa) sta orientando le scelte su quali malattie meritano attenzione, investimento e sviluppo.

I bias nei sistemi di AI e farmaci

Se i sistemi di intelligenza artificiale iniziano a guidare la scoperta di nuovi farmaci, diventa inevitabile interrogarsi su ciò che li guida a loro volta. I modelli sono addestrati su dataset che riflettono scelte, priorità e limiti storici della ricerca biomedica. Questo significa che i bias, anziché essere eliminati, rischiano di essere amplificati e resi meno visibili.

Dati sbilanciati e popolazioni sottorappresentate

Con riguardo alla disponibilità dei dati, gran parte dei dataset utilizzati nel drug discovery deriva da studi condotti prevalentemente su popolazioni occidentali, spesso maschili e con specifiche caratteristiche socio-economiche. Se un modello apprende da questi dati, tenderà a privilegiare target e soluzioni che funzionano meglio per quei gruppi, marginalizzando implicitamente altre popolazioni. Il risultato è una distorsione sistematica che si traduce in farmaci progettati con minore efficacia o maggiore rischio per gruppi già sottorappresentati.

Le priorità economiche incorporate nei modelli

Ci sono poi le priorità economiche incorporate nei dati: i modelli apprendono anche dalle traiettorie di investimento della ricerca passata, che privilegia patologie ad alto ritorno economico. In questo modo, l’AI può finire per rafforzare una logica già esistente, orientando la scoperta verso malattie croniche diffuse nei mercati più remunerativi, piuttosto che verso patologie rare o tipiche di paesi a basso reddito. Si tratta di effetto emergente: ciò che è stato più studiato e finanziato diventa più “visibile” per il modello.

Ciò che l’algoritmo sa misurare

Esiste poi un bias più sottile, legato alla stessa struttura degli algoritmi. I modelli generativi tendono a ottimizzare ciò che è misurabile e formalizzabile, come l’affinità molecolare o la stabilità chimica. Tuttavia, non tutte le dimensioni rilevanti in medicina sono facilmente traducibili in variabili computabili; basti pensare ad aspetti come la complessità delle interazioni biologiche, le differenze individuali o gli effetti a lungo termine, che possono essere semplificati o trascurati. Il rischio, in questo caso, è che la ricerca venga progressivamente orientata verso ciò che il modello sa trattare bene, piuttosto che verso ciò che è clinicamente più rilevante.

Le implicazioni concrete, anche se non immediate, sono profonde. Un sistema che privilegia determinati dati, determinate patologie e determinate metriche, finisce per influenzare l’intera pipeline decisionale, dalla selezione dei target fino alla progettazione degli studi clinici. E poiché questi bias sono incorporati nel modello, risultano difficili da individuare e correggere a posteriori.

L’intelligenza artificiale contribuisce insomma a definire cosa è considerato rilevante, promettente o degno di essere sviluppato. Se queste scelte sono guidate da dati incompleti o distorti, il rischio è che l’innovazione stessa venga indirizzata lungo traiettorie che appaiono neutrali, ma che in realtà riflettono (e rafforzano) disuguaglianze già esistenti.

Governance, dati e controlli nella scoperta dei farmaci

Queste distorsioni iniziano a emergere anche nella letteratura scientifica e nelle prime prese di posizione delle autorità regolatorie. Studi recenti evidenziano, ad esempio, come i sistemi di machine learning applicati alla salute possano amplificare bias di genere già presenti nella ricerca clinica, con effetti misurabili anche in ambiti come l’oncologia, dove differenze nella risposta ai trattamenti tra uomini e donne sono documentate ma ancora non sufficientemente integrate nei modelli predittivi. Allo stesso modo, il confronto tra aree terapeutiche mostra uno squilibrio strutturale: mentre l’oncologia continua ad attrarre investimenti, dati e attenzione scientifica, le cosiddette neglected diseases (che colpiscono prevalentemente popolazioni nei paesi a basso reddito) restano sottorappresentate sia nei dataset sia nelle pipeline di sviluppo.

Non sorprende, quindi, che le autorità stiano iniziando a riconoscere il problema. L’Agenzia Europea per i Medicinali ha richiamato esplicitamente, in un documento sull’uso dell’AI nel ciclo di vita dei farmaci, la necessità di garantire qualità, rappresentatività e generalizzabilità dei dati, oltre a un adeguato livello di supervisione umana e trasparenza nei modelli.

Analogamente, la Food and Drug Administration statunitense ha introdotto il concetto di “credibilità” dei modelli, legandolo al contesto d’uso e al rischio delle decisioni supportate. Tuttavia, questi interventi restano ancora ancorati a principi generali e non si traducono, almeno per ora, in obblighi stringenti lungo tutta la filiera della scoperta del farmaco.

È un fatto, dunque, che i modelli contribuiscano ad orientare le priorità della ricerca e che occorra interrogarsi su come vengono costruiti e su quali dati li alimentano. In prospettiva, ciò implica l’introduzione di obblighi di audit sui dataset, meccanismi di tracciabilità delle fonti, verifiche sulla rappresentatività rispetto alle popolazioni target e controlli periodici sulla capacità dei modelli di mantenere prestazioni affidabili al variare del contesto.

Senza una simile infrastruttura di controllo, il rischio è che i bias restino incorporati nei sistemi e continuino a operare come criterio invisibile di selezione, determinando (prima ancora delle decisioni esplicite) quali malattie sono considerate prioritarie e quali pazienti debbano finire, ancora una volta, ai margini dell’innovazione.

Perché AI e farmaci sfidano la regolazione

Il quadro normativo europeo, incluso l’AI Act, rappresenta un tentativo significativo di regolare l’intelligenza artificiale, ma non sembra pienamente attrezzato per affrontare il caso specifico della ricerca farmaceutica basata su AI.

I sistemi utilizzati nel drug discovery non rientrano facilmente nelle categorie previste, poiché non sono dispositivi medici nel senso tradizionale, non prendendo decisioni direttamente sul paziente. Allo stesso tempo però influenzano in modo determinante le scelte che porteranno allo sviluppo di nuovi trattamenti.

Inoltre, le autorità regolatorie del farmaco, come EMA e FDA, continuano a operare secondo logiche consolidate, focalizzate sul prodotto finale: questo approccio ha garantito negli anni un elevato livello di sicurezza, ma oggi rischia di diventare insufficiente in un contesto in cui il processo di generazione del farmaco è profondamente trasformato.

Il risultato è una lacuna regolatoria che riguarda proprio l’elemento più innovativo del sistema. L’AI, pur essendo centrale nella definizione della pipeline, rimane di fatto ai margini del controllo normativo sostanziale.

Brevetti, inventore umano e proprietà intellettuale

La questione della proprietà intellettuale rappresenta un altro dei punti in cui la tensione tra tecnologia e diritto emerge con maggiore evidenza. Il sistema dei brevetti è infatti costruito attorno alla figura dell’inventore umano, inteso come soggetto che compie un atto creativo riconoscibile.

Nel contesto della drug discovery basata su AI, questa impostazione entra in crisi.

Se una molecola è progettata da un sistema algoritmico, il contributo umano può risultare mediato, distribuito o difficile da isolare. Le posizioni dell’European Patent Office, emerse nel noto caso DABUS (in cui si tentò di registrare brevetti indicando un sistema di AI come inventore di alcune soluzioni tecniche), hanno escluso la possibilità di riconoscere un sistema di intelligenza artificiale come inventore, ribadendo che, secondo la Convenzione sul Brevetto Europeo, l’inventore deve essere una persona fisica. Più che risolvere il problema, questa posizione segnala il tentativo del diritto di rimanere ancorato a categorie tradizionali di inventività, anche mentre la tecnologia inizia a produrre risultati che mettono in discussione proprio quei presupposti.

Decisioni come queste rischiano di diventare sempre meno sostenibili man mano che il ruolo dell’AI nella fase creativa si rafforza, con implicazioni concrete sulla titolarità dei diritti, sulla distribuzione del valore e sugli incentivi all’innovazione.

Si apre quindi una frattura tra realtà tecnologica e regolatoria: se da una parte la creazione può essere in larga parte automatizzata, dall’altra l’impianto giuridico continua a presupporre un intervento umano centrale.

Piattaforme, concentrazione e nuovi equilibri industriali

L’accordo tra Lilly e Insilico si inserisce infine in una dinamica più ampia che riguarda l’intero settore farmaceutico. Le grandi aziende stanno progressivamente esternalizzando una parte della capacità innovativa verso startup specializzate in AI, mentre queste ultime costruiscono piattaforme che possono essere utilizzate da più partner.

Questo modello richiama, in modo sempre più evidente, quello delle piattaforme digitali con pochi attori che sviluppano infrastrutture tecnologiche complesse e difficilmente replicabili e grandi aziende che integrano queste infrastrutture all’interno delle proprie catene del valore.

La conseguenza è una tendenza alla concentrazione, in cui il controllo si distribuisce tra chi possiede i modelli e chi ha la capacità di portare i prodotti sul mercato, riducendo lo spazio per attori intermedi, con un rischio concreto per la possibilità stessa di mantenere un ecosistema competitivo e aperto.

Il nodo finale nell’uso di AI per i farmaci

L’accordo tra Eli Lilly e Insilico Medicine rappresenta, in definitiva, un segnale che dimostra come l’intelligenza artificiale stia diventando un’infrastruttura della ricerca farmaceutica, capace di influenzare, oltre che i tempi e i costi del processo scientifico, anche la natura stessa del processo.

Questa trasformazione avviene in modo relativamente silenzioso, attraverso accordi industriali e scelte tecnologiche che raramente entrano nel dibattito pubblico. Eppure, le implicazioni sono profonde, con la produzione di conoscenza scientifica che si sposta verso sistemi sempre più complessi e opachi, i bias che si incorporano nei modelli prima ancora che nelle decisioni esplicite e la regolazione che (faticando a tenere il passo) continua a concentrarsi su ciò che arriva alla fine del processo, non su ciò che lo genera.

Il fatto che l’AI renda più efficiente lo sviluppo dei farmaci è ormai difficilmente contestabile. Il punto è però capire chi controlla le logiche che determinano cosa viene sviluppato, per chi e con quali priorità; e, inoltre, quali garanzie possono essere offerte in termini di trasparenza e responsabilità, e quale spazio resta per una verifica indipendente dei processi.

Le scelte su cosa curare (e chi curare), progressivamente delegate a sistemi che non sono né pienamente trasparenti né realmente negoziabili, non possono essere lasciate alla sola dinamica di mercato. Tuttavia, almeno per ora, è proprio il mercato a dettare tempi e regole di questa trasformazione.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x