Negli ultimi dieci anni abbiamo assistito a un boom di speranze e investimenti attorno al ruolo potenziale dell’Intelligenza Artificiale nella scoperta di nuovi farmaci.
Startup innovative e giganti dell’industria farmaceutica hanno “propagandato” una rivoluzione imminente, promessa di tempi più brevi, costi minori e trattamenti personalizzati per molte malattie (dal cancro alle patologie rare, fino alle infezioni emergenti).
La narrazione, che ha invaso le cronache internazionali dal 2015 in poi, è stata rafforzata dagli incredibili progressi tecnologici e da casi di successo parziale come AlphaFold di DeepMind, capace di predire con precisione inedita la struttura delle proteine bersaglio delle nostre terapie.
Indice degli argomenti
Promesse non mantenute
Oggi, tuttavia, dobbiamo prendere atto di un fatto cruciale: a distanza di oltre un decennio, le promesse dell’Intelligenza Artificiale nella ricerca farmaceutica non si sono tradotte nella rivoluzione annunciata.
Nessun farmaco “scoperto con l’Intelligenza Artificiale” ha ricevuto approvazione definitiva, e i tanti candidati sbandierati dalle startup affermatesi negli anni dieci del Duemila non sono ancora giunti negli stadi clinici avanzati.
Cosa sta frenando questa innovazione? Quali complessità incontrano davvero i sistemi di Intelligenza Artificiale quando devono confrontarsi con la biologia umana e i processi di sviluppo di un medicinale?
Boom di investimenti e primi insuccessi delle startup
Nel periodo compreso tra il 2015 e il 2021 si è verificata una vera corsa agli investimenti nel settore, con i finanziamenti annuali alle startup di Intelligenza Artificiale per la scoperta farmaceutica cresciuti da meno di 30 milioni di dollari fino a superare gli 1,8 miliardi nei momenti di “massimo entusiasmo” del mercato.
Protagoniste della prima ondata sono aziende come BenevolentAI, Exscientia, Recursion e Insilico Medicine, capaci di attrarre anche l’interesse diretto di grandi player come Sanofi, Bristol Myers Squibb e Novartis.
L’idea fondante consiste nell’utilizzare algoritmi, reti neurali e apprendimento automatico per selezionare bersagli molecolari, studiare interazioni proteiche, progettare nuove molecole e prevedere possibili effetti collaterali o fallimenti in laboratorio, abbattendo drasticamente costi e tempi di sviluppo: portare un nuovo farmaco dal laboratorio alla farmacia richiede in media 10-15 anni e oltre due miliardi di dollari, con percentuali di successo tradizionalmente inferiori al 10%.
Le difficoltà delle startup
Tuttavia, molte delle realtà nate in quegli anni hanno da poco affrontato fallimenti, cancellazioni dalla borsa, fusioni a prezzi ridotti o cambi di leadership dovuti all’insoddisfazione degli investitori. Tra i motivi della delusione figurano fallimenti nelle fasi avanzate di sviluppo e la difficoltà soprattutto nel dimostrare che le soluzioni proposte siano effettivamente migliori rispetto ai metodi tradizionali.
I limiti biologici e tecnici delle intelligenze artificiali
Ma perché l’Intelligenza Artificiale mostra ancora limiti severi nella scoperta di nuovi farmaci? Alla base vi è una questione ben più profonda e tecnica rispetto alla semplice potenza di calcolo.
La vera grande difficoltà si annida nella straordinaria complessità dei sistemi biologici umani: nonostante le conoscenze acquisite e la digitalizzazione di dati molecolari e clinici avvenute negli ultimi decenni, la comprensione delle interazioni tra geni, proteine, cellule e tessuti rimane incompleta. Peraltro, li stessi leader del settore ammettono di star tentando di risolvere problemi che ancora non si comprendono appieno.
Il nodo degli effetti collaterali
Da un lato, la previsione e il design di una molecola capace di legarsi a un bersaglio in modo efficace sono compiti più gestibili per l’Intelligenza Artificiale. Ma il vero ostacolo risiede nei passaggi successivi: prevedere effetti collaterali, reazioni fuori bersaglio, metabolismo nei diversi tessuti e organismi, oppure la risposta immunitaria, implica modellare sistemi con milioni di variabili e interazioni non lineari. La maggior parte delle Intelligenze Artificiali attuali non può ancora replicare questa capacità predittiva a livello d’intero organismo, anche a causa della scarsità (e della eterogeneità) di dati clinici su larga scala.
Il caso alphafold e le sue potenzialità parziali
Uno dei momenti più celebrati della storia recente è stata la soluzione, da parte di DeepMind, dell’antico problema del ripiegamento proteico con AlphaFold (e ora AlphaFold 3). Questa Intelligenza Artificiale è in grado di predire la struttura tridimensionale delle proteine con una precisione enormemente superiore rispetto ai metodi precedenti, ampliando le possibilità di scoperta di nuovi farmaci.
La piattaforma ha già prodotto una biblioteca aperta di strutture che supporta la ricerca globale — e con AlphaFold 3 può anche predire l’interazione tra proteine e altri tipi di molecole, DNA, RNA e ligandi (piccole molecole che si attaccano alle proteine per attivare o bloccare le loro funzioni).
Tuttavia, esperti di settore fanno notare che il salto di qualità di AlphaFold copre un tassello (seppur fondamentale): la struttura della proteina. Non esistono ancora previsioni precise su come queste molecole interagiscono nel tempo (per esempio reazioni a catena o legami temporanei), su come le differenze genetiche tra individui possano influire, né sugli effetti tossici che potrebbero avere nell’organismo vivente.
I limiti degli approcci “IA prima di tutto”
L’esame della storia recente rivela i limiti degli approcci “Intelligenza Artificiale prima di tutto”. BenevolentAI, azienda d’oltremanica pioniera in Europa nel campo della scoperta e sviluppo di nuovi farmaci utilizzando l’Intelligenza Artificiale, ha visto una drammatica perdita di valore e la necessità di essere acquisita nel 2025.
Mentre la britannica Exscientia e la statunitense Recursion, anch’esse considerate all’avanguardia, si sono trovate costrette a fondersi per raggiungere massa critica e proseguire progetti con le grandi Big Pharma.
Molte delle startup hanno puntato, sotto pressione degli investitori, a bersagli facili o a cosiddetti “me too drugs” (farmaci che sono molto simili a medicinali già esistenti, sia per struttura che per meccanismo d’azione, che presentano – tuttavia – piccole variazioni chimiche), per provare subito la bontà dei loro sistemi. Ma i vantaggi, rispetto ai metodi consolidati, sono storicamente risultati modesti.
Nuove intelligenze artificiali generative e prospettive future
Nonostante questi ostacoli, il settore non si è fermato. L’adozione delle Intelligenze Artificiali generative post-2022 (sulla scia di ChatGPT), che permettono anche la progettazione di molecole e l’analisi multimodale di dati, ha innescato una nuova ondata di entusiasmo.
La nuova scommessa non sta nel singolo algoritmo, ma nella capacità di integrare moli enormi di dati biologici — genomici, clinici, immagini cellulari — e di aggiornare costantemente modelli predittivi con feedback sperimentali arrivando, in un futuro forse non lontano, a veri laboratori autonomi dove la scoperta si fa in modo quasi interamente automatizzato.
Aziende come Isomorphic Labs di Alphabet (società madre di Google), supportata da Google DeepMind, lavorano già su queste piattaforme multidisciplinari e dotate di capacità computazionali fino a poco tempo fa impensabili.
Il collo di bottiglia clinico e regolatorio
Resta però il fatto che la rivoluzione sia ancora incompleta. Le principali barriere d’oggigiorno si concretizzano in una sorta di “collo di bottiglia” clinico e regolatorio per il quale, anche con l’Intelligenza Artificiale, una molecola deve passare anni di trial su animali ed esseri umani prima di essere messa in commercio.
Né la velocità né la precisione del design molecolare possono ridurre il tempo obbligatorio degli studi clinici di sicurezza ed efficacia.
Un nodo chiave resta l’accesso e la qualità dei dati: la maggior parte dei dataset (anche proprietari) è incompleta, poco standardizzata e spesso “rumorosa”, con una scarsità di informazioni omogenee sulle risposte dei pazienti che riduce la capacità predittiva degli algoritmi.
Infine, il rischio della “sovra-promessa”: la narrativa sul rapporto Intelligenza Artificiale e biomedicina si è talvolta accompagnata a strategie di marketing eccessivamente ottimiste, che hanno minato la fiducia degli investitori e rallentato l’adozione sistemica di queste tecnologie.
Verso una fase più matura e cauta della ricerca con IA
Come spesso accade nelle grandi invasioni tecnologiche, è in atto una naturale selezione: molte startup, dimostratesi incapaci di mantenere le promesse, sono state assorbite, chiuse o costrette a cambiare modello di business. Restano in piedi le società in grado di investire a lungo termine (tipicamente grandi colossi tecnologici con risorse quasi illimitate) a guidare la ricerca verso quella svolta che, se ci sarà, probabilmente arriverà quando avremo accumulato dati di qualità sufficiente, sofisticato strumenti di validazione biologica e stabilito nuove collaborazioni tra discipline diverse (principalmente biologi, informatici, farmacologi e clinici).
Le aspettative per AlphaFold 3 e i suoi successori sono dunque alte, ma il settore si è fatto più cauto: adesso è evidente che risultati davvero rivoluzionari potranno arrivare solo con nuove scoperte importanti e una comprensione molto più profonda dei meccanismi fondamentali della biologia. Fino ad allora, l’Intelligenza Artificiale rimane uno strumento promettente, che velocizza e potenzia (ma non sostituisce) il rigore scientifico, la sperimentazione controllata e la capacità di interpretazione umana, ancora insostituibile nella lotta per nuove terapie.










