L’introduzione dell’AI generativa negli atenei non è semplicemente una questione tecnologica, ma una trasformazione che investe la natura stessa della ricerca, dell’apprendimento e della produzione scientifica.
Le università si trovano davanti a una sfida inedita: mantenere l’autonomia cognitiva e la qualità del sapere in un ambiente dove la conoscenza è sempre più co-prodotta da sistemi non umani.
Indice degli argomenti
L’AI come dispositivo cognitivo che ridisegna la conoscenza
L’AI, in particolar modo per i sistemi generativi, non può essere affrontata come una semplice tecnologia, ma deve essere concepita – e gestita – come un dispositivo cognitivo, capace di ridisegnare e riscrivere il modo in cui pensiamo, il modo in cui impariamo e il modo in cui produciamo conoscenza.
Nell’ambito accademico l’AI non è più uno strumento esterno, né si limita a supportare la ricerca, ma la attraversa, la indirizza, la pervade. Viene utilizzata per tradurre testi, per sintetizzare e interpretare dati, per formulare ipotesi, per scrivere abstract, ma anche per produrre articoli che, ad una prima lettura, possono sembrare scritti da una mano umana. Il risultato, inutile dirlo, è una trasformazione profonda, non solo nell’organizzazione del lavoro scientifico, ma in generale della natura stessa del pensiero universitario, della sua vocazione e della sua missione.
Fino a pochi mesi fa, l’intelligenza artificiale era parte quasi marginale – o in usi di nicchia – di un’infrastruttura invisibile, certamente utile ma in un certo senso subordinata. Oggi, con la diffusione e il rapidissimo miglioramento dell’AI generativa e dei modelli generativi di linguaggio, è diventata a tutti gli effetti un soggetto attivo, assolutamente centrale, della produzione scientifica.
Le università, in tutti gli ambiti, si trovano così davanti a dover cercare una risposta a una domanda che non è di natura tecnica, ma fortemente politica: come possiamo mantenere la libertà e la qualità cognitiva in un ambiente in cui la ricerca e la conoscenza sono co-prodotte da sistemi non umani, quasi sempre prodotti e governati da soggetti privati?
Le linee guida europee e l’ecosistema di fiducia nella ricerca
Le “Living Guidelines on the Responsible Use of Generative AI in Research” elaborate dall’ERA Forum della Commissione europea e aggiornate nell’aprile del 2025, evidenziano come la GenAI possa diventare una risorsa straordinaria per la ricerca scientifica, ma come possa, al contempo, rappresentare un fattore potenziale di erosione dell’integrità della scienza, se non accompagnata – o ricontestualizzata – nell’ambito di nuove forme di consapevolezza e corresponsabilità. Si tratta di una riflessione che rimanda a un tema ben più ampio, che è la concezione della conoscenza non soltanto come un’aggregazione di nozioni, ma come un ecosistema di fiducia.
E in questo tipo di ecosistema, destinato a cambiare costantemente, la tecnologia non può essere chiamata a sostituire la dimensione umana del giudizio, del dubbio, dell’interpretazione o dell’errore. L’università, più di ogni altra istituzione che contribuisce a dare forma e sostanza alla società, è chiamata ad interrogarsi sullo slittamento di questa soglia; per prima deve decidere – e agire conseguentemente – se l’AI potrà rimanere realisticamente uno strumento tecnico (utile, ma marginale ed esterno) o se potrà diventare un vero e proprio alleato critico, nella riformulazione degli orizzonti della ricerca, della responsabilità dell’apprendimento, della sollecitazione del pensiero.
Impatto sistemico dell’AI sulla filiera accademica contemporanea
Negli ultimi due anni, come è noto, l’AI ha iniziato, in maniera sempre più pervasiva e condizionante, a ridisegnare la morfologia stessa dell’università contemporanea, generando un impatto sistemico in tutta la filiera accademica, dalla ricerca alla didattica, dall’amministrazione alla pianificazione, dalla scrittura scientifica alla valutazione. Negli atenei, nei dipartimenti e nei laboratori di ricerca di tutto il mondo sistemi come ChatGPT, Claude, Deepseek o Copilot sono diventati parte del lavoro quotidiano: permettono di produrre sintesi in pochi secondi, di tradurre in molteplici lingue con accuratezza senza precedenti, aiutano a scrivere codice, stimolano la produzione di ipotesi di ricerca. Nello stesso momento, attraversando una trasformazione di inedita profondità, le università stanno vivendo un salto di efficienza imprevedibile, e affrontando una crisi di identità senza precedenti.
Dal punto di vista operativo, effettivamente, l’AI ha introdotto possibilità fino a tempi recenti semplicemente impensabili, ma non si tratta soltanto di accelerazione operativa, o tecnica: l’AI sta modificando radicalmente la forma mentis stessa del mondo della ricerca, spostandola da un modello che potremmo definire – banalizzando, necessariamente – lineare e cumulativo, a uno di natura reticolare, interattiva, in cui la produzione della conoscenza avviene per correlazioni, interazioni, simulazioni, iterazioni. Tuttavia, accanto alla vastità delle opportunità abilitate dall’AI, non possiamo nascondere la rilevanza dei limiti e delle implicazioni negative.
Ad esempio, l’uso massiccio, spesso non regolamentato, di modelli generativi, rischia di ridurre progressivamente l’autonomia critica, o la prospettiva innovativa, o l’immaginazione strategica dei ricercatori, trasformandoli, di fatto, da produttori di conoscenza in fruitori e curatori di output automatici.
La rivista Nature, già nel settembre del 2023, agli albori dell’AI generativa di uso massivo, aveva documentato numerosi casi di paper scritti almeno parzialmente – da chatbot, con riferimenti bibliografici inventati o manipolati, come, del resto, caso di una consulenza per il Governo australiano, contestata per la presenza di allucinazioni in un report. Parallelamente, d’altra parte, si aprono anche nuove questioni di natura etica e legale: chi è, davvero, l’autore di un testo prodotto da un modello di AI generativa? Come gestire i diritti e i doveri che ne derivano? Come possiamo garantire l’originalità di un’idea, in un ambiente in cui la riproduzione – o la produzione su base ri-compilatoria – è potenzialmente illimitata?
A queste si aggiungono rischi meno visibili, che le università potrebbero decidere, nei diversi contesti politici e geopolitici, di affrontare criticamente o di accettare passivamente: l’impatto ambientale dell’uso massivo dell’AI, le implicazioni di carattere cognitivo, epistemologico, deontologico, nella gestione dei contenuti, dei processi di allenamento o degli output. Evidentemente, di fronte a questa complessità, tanto sfaccettata quanto instabile, le università sono chiamate ad interrogarsi sulla possibilità di giocare un nuovo ruolo politico. Non è più sufficiente gestire la tecnologia, né regolamentarla, ma serve interrogarsi sulla necessità di cambiare lo stesso concetto di governance della conoscenza.
Il quadro normativo europeo tra AI Act e living guidelines
La riflessione legislativa europea sul rapporto tra AI e ricerca si muove, almeno su numerosi temi di rilevanza prioritaria, su un terreno di policy ormai maturo. Con l’AI Act l’Unione Europea ha definito un quadro regolatorio che ambisce a garantire condizioni di trasparenza, sicurezza e rispetto dei diritti fondamentali in ogni ambito d’uso dell’AI. Ma per i settori di università e ricerca, come abbiamo visto, il passo più rilevante è arrivato con la pubblicazione delle già citate Living Guidelines on the Responsible Use of Generative AI in Research.
Le linee guida, che rappresentano il frutto di un lavoro congiunto tra numerosi stakeholder (Stati membri, centri di ricerca e università), cercano di proporre un modello di governance basato su quattro principi fondamentali: responsabilità, onestà, rispetto e affidabilità. È interessante vedere come il documento parli a un’audience su tre livelli – ricercatori, enti di ricerca, enti che finanziano la ricerca – cercando di fornire indirizzi sulla trasformazione di un intero ecosistema, ben oltre la soglia delle aule o dei lavoratori. Si tratta, pertanto, di una prospettiva che non si limita alla deontologia, ma che propone una sostanziale riformulazione della stessa concezione alla base della cultura scientifica.
Il documento insiste e ritorna ripetutamente sull’importanza di contribuire a formare comunità di ricerca consapevoli, capaci di comprendere, rilevare e discutere collettivamente gli usi e le implicazioni dell’AI. In più punti invita gli atenei e i centri di ricerca a dotarsi di strumenti di policy interni e di framework di monitoraggio, per prevenire, evitare o compensare derive opache, forme di discriminazione o abusi.
La logica, tuttavia, riflettendo una visione sostanzialmente distintiva della scena europea, resta prevalentemente di tipo “normativo“. Anche in questo caso, come per l’AI Act, l’Europa riconosce che l’AI può trasformare radicalmente la ricerca, ma fatica a definire, costruire ed alimentare un immaginario politico della conoscenza capace di andare oltre la semplice – per quanto necessaria – regolamentazione tecnica. Riteniamo inoltre significativo che le stesse linee guida vengano definite, già nel titolo, come living, destinate, quindi, ad essere periodicamente aggiornate, per cercare di adattarsi, in maniera dinamica, ai contesti specifici e alle specifiche priorità. Si deduce, quindi, una sorta di riconoscimento implicito di una condizione strutturale profonda: nessuna regola, di fronte ad una tecnologia così dinamica e imprevedibile, è sufficiente a governare in modo efficace una trasformazione epistemica così radicale, se non sostenuta da una visione condivisa di ciò che, nell’era dell’AI, intendiamo per conoscenza.
Tre modelli strategici delle università italiane verso l’AI
Analizzando il panorama nazionale, gli Atenei italiani stanno cercando di rispondere alle nuove sfide dell’AI con modalità piuttosto eterogenee, che riteniamo di poter aggregare in tre tipologie di visione strategica:
● integrazione fiduciaria: alcune istituzioni hanno scelto di adottare una linea che definiremmo aperta, che considera l’AI generativa come un’opportunità da valorizzare, senza eccedere nelle procedure di controllo. In questi casi la policy ha assunto – nei regolamenti, nelle linee guida o nelle semplici comunicazioni operative – un tono abilitante, propositivo: l’AI non viene né esplicitamente criticata, né certamente vietata, ma viene indirizzata verso usi responsabili, a partire dall’idea di base che la comunità accademica possa e debba essere parte proattiva nella definizione dei parametri etici e tecnici di utilizzo. Si parla quindi di supporto alla ricerca, di integrazione umano-macchina, di sperimentazione consapevole, di trasformazione governata.
● Regolazione prescrittiva: Altri atenei hanno scelto una strategia più cauta, soprattutto nell’ambito della ricerca: definiscono quindi chiaramente e con precisione le condizioni d’uso della GenAI, imponendo dichiarazioni obbligatorie, o delineando tabelle con gerarchie di ammissibilità dell’uso. Si tratta, com’è evidente, di un modello prevalentemente difensivo, volto più a tutelare l’integrità della ricerca e della proprietà intellettuale della ricerca, che a stimolare l’integrazione dell’AI nelle strategie d’innovazione. Il linguaggio, tendenzialmente, è quindi quello del rischio da contenere, o delle implicazioni da monitorare, più che della trasformazione da indirizzare.
● Governance della conoscenza: Una terza prospettiva punta invece ad inserire l’AI nel quadro più ampio e mutevole della produzione scientifica e dell’amplificazione della conoscenza: l’istituzione vede l’AI come una potenziale estensione cognitiva, come un’infrastruttura di amplificazione della ricerca, anziché semplicemente come uno strumento di lavoro.
Visione strategica e governance della conoscenza negli atenei
In queste strategie emerge chiaramente la volontà di dotarsi di linee guida dedicate in maniera mirata alla ricerca (anziché solo alla didattica, o alle problematiche gestionali), di elaborare azioni e framework di monitoraggio continuo, di programmare audit, segmenti di formazione specifica, indicatori per la trasparenza sui processi di generazione automatica, componendo una visione di medio e lungo termine sull’impatto epistemico, e non solo gestionale, dell’AI.
Le quattro lacune critiche delle policy universitarie italiane
Se analizziamo però accuratamente queste tre prospettive strategiche emergono con una certa chiarezza alcune lacune, che riteniamo sia utile esplicitare con precisione.
- La governance della ricerca è ancora debole: Molti atenei non si sono ancora dotati di strumenti di verifica sistematica sull’adozione e l’uso dell’AI nei progetti di ricerca. Molte linee guida che dichiarano con una certa insistenza la centralità della trasparenza non hanno definito metriche o audit.
- Formazione e competenze insufficienti: I dati attualmente a disposizione suggeriscono che la richiesta di strumenti AI si stia muovendo molto più velocemente della capacità delle istituzioni universitarie di formare docenti e ricercatori. Questo gap formativo può fisiologicamente tradursi nel rischio di un uso improprio dell’AI, di un atteggiamento diffuso di delega del pensiero ai tool automatizzati, o di scarsa capacità critica nella valutazione degli output generati.
- Disparità infrastrutturali e di risorse: Non tutti gli atenei dispongono delle stesse risorse – economiche, infrastrutturali, socio-culturali – per dotarsi di infrastrutture adeguate di AI, di sistemi di supporto alla ricerca o di centri di competenza interni. Ciò si traduce rapidamente in una grave eterogeneità
Dalla reattività alla progettazione strategica degli atenei
nel livello di adozione delle policy e di implementazione delle possibilità, con il conseguente rischio di amplificare potenziali divari di tipo tecnologico e cognitivo.
- Mancanza di visione a medio-lungo termine: Molte policy – sia scolastiche, sia universitarie – sembrano focalizzarsi sugli aspetti immediati e sulla gestione della contingenza odierna: si parla spesso di regolamentazione dell’uso, di dichiarazioni sull’impiego dell’AI, di divieti nei test e nelle attività didattiche, ma ben poche si interrogano su come l’AI stia ridisegnando il paradigma stesso della ricerca. Per quanto già il documento AI for Future Italy, redatto e pubblicato dal Laboratorio Nazionale CINI AIIS nel 2020, parlasse della necessità di una visione a lungo termine, molte strategie d’ateneo hanno adottato una prospettiva meramente reattiva.
Efficienza vs efficacia: un bilancio critico
Complessivamente, possiamo certamente affermare che le policy d’ateneo a livello nazionale stanno cercando di fornire una prima risposta, che può anche risultare efficace, ma rimangono inefficaci di fronte ai tanti livelli di ridefinizione della ricerca e della conoscenza indotte dalla radicale trasformazione in atto. Se da una parte abbiamo chiare dichiarazioni rispetto all’uso didattico, o rispetto al supporto nella redazione di contenuti (paper, presentazioni, etc.), dall’altra abbiamo raramente indicazioni chiare sull’uso nella ricerca. Se da una parte abbiamo definizioni esplicite sui principi di orientamento, o sui rischi da governare, dall’altra raramente vengono definiti indicatori, o procedure interne di audit. Se da una parte molti atenei hanno implementato linee guida o policy per l’uso dell’AI, dall’altra molto raramente sono stati creati comitati specializzati, per indirizzare le numerosissime implicazioni d’uso, trasversalmente alla struttura organizzativa, alle finalità, alla architettura di distribuzione delle responsabilità. In breve: molte università italiane hanno già mosso il primo passo – in modo coerente e attento – ma nella maggior parte dei casi si tratta ancora di azioni che potremmo collocare in una fase di adattamento, anziché in una fase, necessaria e sempre più urgente, di progettazione strategica.
Ripensare la forma della conoscenza nell’era dell’AI
Come abbiamo visto, la vera sfida dell’intelligenza artificiale nelle università non è più semplicemente quella di regolamentare l’uso possibile degli strumenti, ma piuttosto quella di ripensare la forma stessa della conoscenza e del modo in cui viene prodotta, in un ambiente in cui anche sistemi artificiali partecipano efficacemente e in maniera capillare alla sua produzione.
Finora, come abbiamo avuto modo di accennare, gran parte delle politiche accademiche sull’AI si sono concentrate sulla soglia tra ciò che è lecito e ciò che è illecito fare: alcune indicazioni operative, eventuali tabelle con elenchi di “usi ammessi”, evocazione di clausole di responsabilità. Tuttavia, la vera domanda – ad oggi in molti casi trascurata – è come l’università sia chiamata a governare e sia disposta ad accettare il ruolo dell’intelligenza artificiale come una parte integrante della propria missione culturale e della propria attività scientifica. Per dirlo con altre parole: non è più sufficiente disciplinare l’uso della tecnologia, serve ripensare le implicazioni delle politiche della conoscenza nel momento in cui viene prodotta in contesti cognitivi ibridi.
L’università, che per secoli ha prodotto, custodito e trasformato il sapere, si trova ora a dover accettare una trasformazione ontologica, che l’ha convertita in una istituzione riflessiva, certamente capace di produrre norme, ma chiamata ad interrogarsi sul senso stesso di ciò che decide di normare. Com’è evidente, questa transizione implica una riconfigurazione profonda del modo – e del senso stesso – di fare policy.
Dalla policy tecnologica alla policy della conoscenza
Per poter affrontare in modo efficace questa trasformazione, dopo una lunga ricerca, abbiamo pensato di proporre un’evoluzione, dalla tradizionale policy tecnologica ad una più ampia policy della conoscenza. Se la prima si delinea come un processo di definizione di “regole d’uso”, la seconda deve interrogarsi sul modo in cui, nei processi di produzione della conoscenza, si generano relazioni di senso e di responsabilità.
Cinque pilastri per una governance integrata dell’AI in università
Se la prima affronta – in maniera necessaria – la dimensione tecnica (sicurezza, privacy, accuratezza), la seconda integra la dimensione epistemica (rigore, interpretazione, autorialità) e la dimensione sociale (equità, accesso, impatto ambientale). In pratica, un’università guidata dalla volontà di affrontare l’AI non solo come una tecnologia, ma come un attivatore di trasformazione cognitiva, dovrebbe:
- Costruire una governance integrata, andando oltre la burocratizzazione o la formalizzazione delle trasformazioni, ma creando nuove strutture, organismi di raccordo, uffici capaci di convertire la complessità delle sfide in opportunità di decisione (e di conoscenza) condivisa.
- Adottare strumenti chiari di trasparenza e audit, prevedendo che ogni progetto che impiega l’AI possa essere tracciato nelle sue fasi di evoluzione, convertendo il valore della tracciabilità e della trasparenza da un mero tema di compliance ad una forma di cura del rigore.
- Formare competenze critiche, non solo tecniche, promuovendo una literacy che vada al di là delle modalità d’uso, per favorire la comprensione dei presupposti culturali, politici, linguistici, cognitivi dei sistemi di AI.
- Ridefinire i parametri di valutazione della ricerca, favorendo, fin da ora, un ripensamento dei criteri e degli indicatori che permettano di misurare efficacemente l’apporto umano dal punto di vista della visione, della coerenza, dell’innovazione strategica e responsabilità, oltre la quantità o la presunta originalità sintattica o tematica di una ricerca.
- Investire in infrastrutture aperte, favorendo una transizione verso una concezione dei dati come beni comuni cognitivi. Sarebbe quindi lungimirante progettare repository condivisi, piattaforme collaborative, database FAIR, per usare le politiche dell’AI come i presupporti per una politica dell’open knowledge.
I cinque livelli di maturità istituzionale verso l’AI
Come strumento di riflessione critica, per supportare iniziative di self-assessment, o semplicemente di dibattito, abbiamo provato ad immaginare l’elaborazione di una griglia di valutazione della maturità istituzionale rispetto all’AI, adattando modelli di AI readiness assessment. La tabella seguente cerca di sintetizzare i principali livelli evolutivi delle policy sull’AI – dalla mera gestione reattiva a una vera e propria governance ecosistemica – che abbiamo rilevato, dall’analisi della scena odierna.

La conoscenza come atto di resistenza cognitiva
Ogni epoca, da quando abbiamo memoria, ha espresso, in modi molto diversi, la propria forma di intelligenza collettiva. La nostra, in un certo senso, ha creato le condizioni perché fosse possibile esternalizzarla. Abbiamo costruito, nel corso dei decenni, sistemi capaci di apprendere, di tradurre, di produrre, di aiutarci a decidere, e lo abbiamo fatto, quasi sempre, guidati dall’idea dell’efficienza, spesso senza chiederci che cosa stessimo perdendo, nel processo. Oggi l’intelligenza artificiale ci costringe a porci una domanda, che nessuna macchina può formulare, e a cui, per come lo intendiamo noi, nessuna macchina saprebbe rispondere: che cosa significa ancora pensare?
Crediamo che l’università sia il luogo in cui questa domanda, oggi più che mai, deve pretendere una risposta. Perché compito dell’università non è solo produrre conoscenza, ma custodire il senso di ciò che quella conoscenza può rappresentare. In un tempo in cui l’accuratezza e la velocità della generazione automatica di contenuti rischia di sostituire l’atto della comprensione con l’atto della compilazione, l’università deve usare l’AI come un’occasione per interrogarsi sul proprio ruolo, per tornare ad essere un presidio di autonomia cognitiva. Non si tratta di opporsi agli infiniti vantaggi che possono derivare da questo tipo di tecnologia, ma di imparare ad abitarne la complessità, a considerare l’AI non come un avversario, ma come un nuovo linguaggio possibile del reale.
Per farlo, evidentemente, serve una nuova politica della conoscenza, capace di guardare oltre la tecnica, capace di comprendere che la qualità, o la rilevanza, del sapere non dipende dalla velocità o dalla quantità di produzione, ma dalla sua capacità di abilitare intelligenze, di stimolare nuove domande, di generare libertà. La trasformazione in corso, adesso lo possiamo dire in modo più esplicito, non riguarda soltanto i laboratori, o le aule, ma invita a ripensare il rapporto stesso tra il sapere e la democrazia. Ogni decisione sull’uso dell’AI rappresenta, implicitamente, una decisione sul futuro del pensiero collettivo; su chi ha il diritto di descrivere, di interpretare, di studiare il mondo; su chi può custodire il significato dei dati, o su chi può garantire che il sapere resti davvero un bene comune.
È questo il terreno su cui, secondo noi, si misurerà la responsabilità delle università, rispetto all’impatto dell’AI, nei prossimi anni. Perché, in fondo, tra tanti timori, l’AI non cambierà l’università, ma la società che alle università fa riferimento, ormai da secoli, per accedere al sapere. Piuttosto, potrà essere l’università – se sceglierà di cogliere l’occasione per guardarsi con ambizione – a decidere il modo in cui l’AI potrà cambiare il mondo.











