La recente creazione, presso l’Università di Stanford e l’Arc Institute, di virus batteriofagi “funzionanti” generati interamente da modelli di intelligenza artificiale rappresenta un passaggio epocale nella storia della biologia sintetica.
L’IA non si limita più a simulare fenomeni, ma a produrre entità viventi capaci di interagire con il mondo biologico.
Questa frontiera, che promette rivoluzioni terapeutiche e nuove possibilità nella lotta alle infezioni resistenti, apre però scenari inediti in materia di diritto, responsabilità e bioetica. Il presente contributo riflette sui vuoti normativi, sulle tensioni tra libertà della ricerca e sicurezza collettiva, e sulla necessità di una nuova governance internazionale delle biotecnologie alimentate dall’intelligenza artificiale.
Indice degli argomenti
L’alba di una nuova biologia: l’esperimento di Stanford e il “virus scritto da una macchina”
Nell’estate del 2025, una notizia ha attraversato le redazioni scientifiche del mondo: un gruppo di ricercatori dell’Università di Stanford e dell’Arc Institute, in California, era riuscito a generare veri e propri virus batteriofagi grazie a un modello di intelligenza artificiale chiamato Evo. Non si trattava di un esperimento di simulazione, ma di un passo concreto oltre il confine della predizione.
L’IA aveva scritto da sé – sulla base di un’enorme quantità di dati genomici – centinaia di sequenze virali complete. Sedici di esse, una volta sintetizzate in laboratorio, si erano dimostrate vitali: capaci di infettare batteri, di replicarsi, di uccidere le cellule ospiti.
Si trattava di faghi, e dunque virus che colpiscono batteri, non organismi umani. Una speranza contro i batteri antibiotico-resistenti, una piaga mondiale sempre più minacciosa.
Eppure, la portata simbolica e scientifica dell’evento ha superato immediatamente il dato tecnico. Per la prima volta, un sistema artificiale aveva creato un frammento di vita reale. “Scrivere” la vita non era più una metafora poetica o un sogno da laboratorio di biologia sintetica: era una possibilità effettiva.
La comunità scientifica ha salutato il risultato con entusiasmo e inquietudine. Perché, se un modello può progettare in poche ore un virus che funziona, quale garanzia esiste che lo stesso principio non possa essere esteso – o abusato – per generare agenti più complessi, forse anche pericolosi per l’uomo?
In questa domanda si condensa il cuore del problema giuridico ed etico del nostro tempo: come regolare un sapere che, per la prima volta, non solo conosce il vivente ma lo crea ex novo?
Le promesse terapeutiche: quando l’IA diventa alleata della medicina
La medicina contemporanea si trova di fronte a un paradosso. Da un lato, il trionfo della farmacologia moderna e della genomica ha permesso di sconfiggere malattie un tempo letali; dall’altro, l’abuso di antibiotici ha prodotto il fenomeno globale della resistenza batterica, una delle minacce più gravi per la salute pubblica del XXI secolo.
La terapia con faghi – cioè l’uso di virus naturali per colpire batteri patogeni – non è un’invenzione recente: risale agli anni Venti del Novecento, ma fu abbandonata con l’avvento degli antibiotici.
Oggi torna in auge, sostenuta da strumenti che nessuno, cento anni fa, avrebbe potuto immaginare. Se un modello come Evo è in grado di disegnare faghi su misura per aggredire ceppi resistenti, il suo contributo alla medicina personalizzata diventa potenzialmente salvifico.
Non si tratta solo di accelerare i tempi di scoperta o ridurre i costi di laboratorio. L’IA permette di entrare nel linguaggio stesso della biologia, di manipolare il codice della vita con una precisione inedita. È la medicina che si fa calcolo, e il calcolo che diventa cura.
Ma proprio perché la promessa è così alta, anche la posta in gioco etica lo è. Il confine tra l’uso terapeutico e il rischio di un impiego improprio diventa labile. La storia insegna che ogni potere sul vivente porta con sé un doppio potenziale: guarire o distruggere.
AI che crea virus, l’ombra lunga del “dual use”: scienza per la vita, scienza per il pericolo
Gli studiosi di bioetica parlano da tempo di “dual use research of concern”, la ricerca che può essere usata tanto per fini benefici quanto per fini dannosi. La creazione di virus tramite IA è un caso paradigmatico di questa categoria.
Nel caso di Stanford, i ricercatori hanno posto barriere rigide: l’IA è stata addestrata solo su virus batterici, escludendo qualsiasi genoma umano o animale. Eppure, la stessa logica di apprendimento e combinazione potrebbe, in teoria, essere utilizzata altrove, con scopi meno nobili. È la logica ambivalente del progresso: ogni nuova frontiera apre una possibilità di emancipazione e una di rischio.
Il diritto, però, non può limitarsi a constatare questa ambivalenza. Deve interrogarsi su come incanalare l’innovazione entro limiti di responsabilità, trasparenza e controllo. Il principio di precauzione, nato per le biotecnologie tradizionali, deve ora essere ripensato in chiave algoritmica.
Quando un sistema autonomo genera un’entità biologica, di chi è la responsabilità morale e giuridica? Del programmatore, che ha costruito l’algoritmo? Del ricercatore, che ha deciso di eseguire il modello? Dell’istituzione che lo finanzia? O del legislatore, che non ha ancora previsto norme adeguate? Il caso Evo ha mostrato come la catena di imputazione sia complessa e ancora priva di una trama giuridica solida.
Le lacune del diritto positivo: un vuoto tra biologia e informatica
Le norme oggi vigenti nei principali ordinamenti occidentali regolano la manipolazione genetica e la biosicurezza, ma non contemplano la figura di un virus “progettato” da un algoritmo.
Il diritto penale conosce reati come la diffusione di agenti patogeni, l’uso illecito di materiale biologico, l’omessa vigilanza in laboratorio. Tuttavia, nessuna di queste fattispecie sembra adeguata a descrivere un’eventualità in cui un’intelligenza artificiale produca una sequenza genetica funzionale e questa venga sintetizzata.
Nel diritto civile, la responsabilità per attività pericolose potrebbe offrire un punto d’appoggio. Ma la causalità, già problematica in biologia, diventa qui ancor più sfuggente: come provare che un danno derivi da un organismo generato digitalmente, e non da mutazioni naturali? E come valutare la prevedibilità di un rischio che nasce da un sistema capace di creatività autonoma?
La difficoltà non è soltanto interpretativa, ma ontologica. Il diritto si è sempre fondato sulla distinzione tra l’azione umana e il fatto naturale. L’intelligenza artificiale, capace di generare entità biologiche, dissolve questa separazione. Il suo operato è al tempo stesso umano e non umano, intenzionale e automatico, prevedibile e opaco.
Verso una governance internazionale dell’IA biologica
Di fronte a fenomeni che travalicano i confini nazionali, il diritto non può rimanere prigioniero della logica statale. Le pandemie, come abbiamo appreso dolorosamente dal Covid-19, non conoscono frontiere; ancor meno le informazioni digitali che alimentano i modelli di IA.
Gli strumenti esistenti, come la Convenzione sulle Armi Biologiche del 1972, sono pensati per impedire la proliferazione deliberata di agenti patogeni. Ma oggi il pericolo non è tanto la volontà malevola di uno Stato, quanto la capacità diffusa di soggetti privati di generare, con pochi mezzi, entità biologiche nuove.
Occorre dunque una nuova governance globale della bio-IA, che unisca i principi della sicurezza internazionale, del diritto della ricerca e della responsabilità tecnologica. L’Unione Europea, con l’AI Act, ha introdotto una prima classificazione dei sistemi di IA in base al rischio, ma non ha ancora affrontato la dimensione biologica. È urgente che il legislatore europeo includa tra i sistemi “ad alto rischio” anche quelli capaci di progettare organismi viventi o componenti genetiche.
La cooperazione internazionale dovrà estendersi non solo al controllo dei laboratori, ma anche alla tracciabilità digitale delle sequenze create, alla certificazione dei software, alla limitazione dell’accesso ai database sensibili. In un mondo in cui la vita può essere sintetizzata con una stampante biologica, la sicurezza non può più essere confinata alle pareti di un laboratorio.
Etica della creazione: tra Prometeo e Icaro
Ogni generazione scientifica ha avuto il suo mito. L’energia atomica evocava Prometeo, che ruba il fuoco agli dèi. L’intelligenza artificiale richiama invece la figura di Icaro: l’uomo che osa volare troppo vicino al sole, e che scopre troppo tardi la fragilità delle sue ali.
Creare un virus attraverso un algoritmo non è solo un atto tecnico, ma un gesto simbolico: l’uomo che delega alla macchina il potere di generare vita. È un passo che interroga l’antropologia giuridica più profonda: chi è oggi il soggetto dell’azione? Chi è il creatore e chi il responsabile?
La bioetica tradizionale si fondava sull’idea di un ricercatore umano che manipola la materia vivente e deve rispondere delle proprie scelte. Ma se la “mano” che scrive il genoma è artificiale, il fondamento stesso della responsabilità vacilla.
Il rischio, come osservava già Hans Jonas, è che il nostro potere cresca più rapidamente della nostra capacità di prevederne gli effetti. Il diritto non può più limitarsi a reagire dopo l’evento: deve imparare ad agire prima, come forma di prudenza istituzionale.
Medicina, diritto e fiducia sociale
Il futuro della medicina passerà inevitabilmente attraverso l’intelligenza artificiale. Diagnosi predittive, farmaci personalizzati, progettazione molecolare automatizzata: tutto ciò è già realtà. Ma la fiducia pubblica nella scienza si fonda su una condizione fragile – la percezione che l’innovazione sia orientata al bene comune e non al rischio incontrollato.
Il diritto, in questo senso, non è soltanto un insieme di divieti, ma un linguaggio che costruisce fiducia. Stabilire regole chiare, trasparenti e partecipate significa dare legittimità alla ricerca, proteggere i cittadini senza frenare la curiosità. È un equilibrio delicato, ma indispensabile.
Se non sarà il diritto a guidare questa trasformazione, lo faranno altri: i mercati, le potenze militari, o la semplice logica della competizione tecnologica. E allora, la biologia sintetica generata dall’IA rischierà di divenire l’ennesima corsa cieca verso un progresso senza direzione.
Conclusione: dal potere di creare al dovere di custodire
La creazione del primo virus artificiale prodotto da intelligenza artificiale non è soltanto una notizia scientifica: è un evento culturale. Segna la fine di un’epoca in cui il vivente era un dato naturale, e l’inizio di un’era in cui la vita diventa oggetto di scrittura.
In questa nuova condizione, il compito del giurista non è quello di temere il futuro, ma di dargli forma. Occorre un diritto capace di custodire la vita senza imprigionarla, di permettere la ricerca senza trasformarla in minaccia.
L’IA ci pone di fronte alla possibilità di essere, insieme, inventori e guardiani della vita. È una responsabilità che esige non solo leggi, ma una nuova cultura del limite: quel limite che non è nemico del sapere, ma la sua condizione di umanità.
Solo così, tra la prudenza del diritto e l’audacia della scienza, potremo sperare che il virus creato da una macchina diventi non il preludio di una catastrofe, ma l’inizio di una medicina davvero nuova — una medicina che, comprendendo il linguaggio della vita, sappia anche rispettarlo.











