il confronto

Università e AI: in Italia comanda la compliance, negli USA la didattica



Indirizzo copiato

Negli atenei USA l’AI generativa è integrata con disclosure, sillabi-contratto e focus su trasparenza e integrità, pur con controlli anti-plagio. In Italia pesano AI Act, GDPR e linee guida: più cornici normative che procedure didattiche. La sfida è trasformare principi etici in pratiche formative concrete

Pubblicato il 24 feb 2026



università (2) (1)

L’intelligenza artificiale nelle università italiane è oggi una questione normativa o culturale? L’Italia vuole guidare l’intelligenza artificiale o limitarne l’impatto?

Il confronto con l’esperienza statunitense mostra che il passaggio decisivo non è dall’uso al divieto, ma dal timore all’adozione consapevole, misurabile e trasparente.

Il presente contributo si configura come un saggio critico-comparativo, fondato su osservazione partecipata e analisi normativa condotta all’interno del sistema accademico statunitense, nello specifico nello Stato del Kansas, volto a indagare i modelli di governance accademica dell’intelligenza artificiale tra Stati Uniti ed Europa.

Dalla logica di interdizione alla risorsa educativa

Tale prospettiva sul campo ha consentito di evidenziare come l’attenzione verso l’Intelligenza Artificiale (AI) non sia percepita con una logica di interdizione, bensì come risorsa educativa da governare attraverso principi etici condivisi.

Negli Stati Uniti, l’AI generativa è ormai integrata stabilmente nei programmi accademici.

Trasparenza e responsabilità nel patto formativo

L’AI Disclosure Statement si fonda sulla trasparenza, responsabilità etica, integrità accademica, conformità.

Lo studente è tenuto ad esaminare, osservare e sottoscrivere il Syllabus, il quale include, oltre a specifiche sui contenuti degli esami, sulle modalità di giudizio e sui criteri di assegnazione dei voti, una sezione dedicata all’uso dell’intelligenza artificiale, suscettibile di aggiornamenti anche nel corso del semestre.

Qui, i sillabi sono veri e propri contratti sociali tra il discente e l’ateneo.

Le accademie USA sono ormai transitate dal divieto assoluto a un uso consapevole e profittevole di questi strumenti.

Plagio, detector e integrità accademica

Il focus è ora sull’utilizzo etico. Esistono ancora clausole rigidissime che proibiscono il plagio e AI detectors integrati nel sistema universitario che controllano e monitorano gli scritti.

L’uso dell’assistenza tecnologica senza citazione è considerato una “Academic Misconduct“: se il sistema percepisce il plagio o il testo come generato da AI, scatta un procedimento disciplinare o una penalità sul voto.

Tuttavia, gli studenti sono invitati a discutere democraticamente sulla regola, a motivare il proprio dissenso ed eventualmente a negoziare alcune norme, ferma restando la proibizione del plagio: in sintesi, trasparenza, chiarezza e delega consapevole di responsabilità.

Il “contratto sociale” dell’intelligenza artificiale e la compliance

L’università fornisce gli strumenti e il sinallagma richiede onestà e integrità da parte dell’allievo: una sorta di compliance autogestita, priva di ingerenza da parte dell’autorità, che può essere definita come “contratto sociale dell’intelligenza artificiale”, un concetto filosofico e politico moderno si richiama alle teorie classiche (Hobbes, Locke, Rousseau) e le trasferisce nell’era digitale[1].

Più nel dettaglio, trattasi di una proposta teorica utile alla regolazione dei rapporti tra stato, cittadini e processi automatizzati, che garanisce la convivenza delle nuove tecnologie con il sapere umano, tutelando al tempo stesso la libertà individuale ed il progresso.

Un caso emblematico: AI Summit 2025 e la cornice etico-educativa

Un esempio emblematico di questo approccio è rappresentato dall’AI Summit 2025, co-organizzato dalla Harvard Data Science Initiative (HDSI) e dalla Harvard Data Science Review (HDSR) nell’ottobre 2025.

L’obiettivo era quello di interconnettere studiosi, tecnologi, dirigenti, leader del settore e studenti in un vero e proprio sofisticato laboratorio di filosofia applicata per ridisegnare il futuro dell’intelligenza artificiale abbracciandone l’uso etico e consapevole.

Nel discorso inaugurale ed in qualità di Faculty Director della Harvard Data Science Initiative (HDSI), infatti, Francesca Dominici ha definito l’AI come uno strumento di connessione, un ecosistema costituito non solo da algoritmi, ma da tutti gli stakeholder dei diversi settori della società orientati al bene comune e del progresso[2].

Per questa ragione, lo sviluppo dell’AI non dovrebbe essere ostacolato ma guidato dall’uomo, perché l’esito è una responsabilità collettiva.

Come l’AI trasforma ricerca, finanza e formazione universitaria

L’AI Summit 2025 ha messo in luce quanto i nuovi tools stiano trasformando non solo la tecnologia, ma anche il mondo delle scienze e delle finanze, la formazione universitaria, il pensiero critico.

I vari panel hanno mostrato, infatti, come l’AI modifichi la ricerca, sollevando questioni epistemologiche, sottolineando l’importanza di accostare sempre il giudizio umano ai modelli automatizzati, di utilizzare un approccio umanistico alla scienza dei dati, mantenendo curiosità e passione per ciò che si produce, priorizzandola persino, in alcuni casi, rispetto alla mera efficienza dei numeri.

Harvard evidenzia il ruolo centrale del mondo accademico in questa mission, sostenendo come l’AI, concepito e trattato come strumento educativo, possa fungere da navigatore capace di creare un’istruzione personalizzata senza necessariamente sostituire il ruolo umano, ma anzi accrescendo ed arricchendo le competenze di leadership, mentoring and monitoring dei docenti.

Etica, hard skills e riflessione sui limiti sociali dell’AI

L’adozione consapevole dell’AI nelle università richiede quindi un bilanciamento tra sperimentazione, responsabilità e finalità educativa. L’intelligenza artificiale non modifica soltanto gli strumenti della ricerca e dell’insegnamento, ma incide sulla metodologia stessa con cui la conoscenza viene generata, per poi essere compresa e trasmessa.

In questi termini, la formazione tecnica, da sola, non è sufficiente, è necessario accompagnarla con una riflessione sui limiti e le conseguenze sociali delle tecnologie di AI: per questa ragione non richiede solo hard skills, ma anche attenzione etica al processo ed al valore del risultato[3].

Filosofia della scienza e data science come ponte

In questa direzione, l’AI summit ha dato molto rilievo all’integrazione della filosofia della scienza nei programmi di data science, ritenendola una soluzione alla diffusione dell’uso etico e consapevole dell’AI, perché, come evidenziato in un recente contributo della Harvard Data Science Review, un insegnamento di questo genere funge da ponte tra filosofia, etica dei dati e competenze tecniche, fornendo agli studenti gli strumenti per analizzare criticamente le proprie metodologie e comprendere le implicazioni sociali del proprio lavoro[4].

In quest’ottica, l’introduzione dell’epistemologia nella data science non costituisce solo uno esercizio accademico ma un sistema di costruzione perché ‘insegna a rappresentare le convinzioni in termini probabilistici anziché logici (tutto o niente), ad aggiornare razionalmente le proprie conclusioni alla luce di nuove prove, a garantire il controllo degli errori, ad affrontare gli errori di specificazione dei modelli e a riconoscere il ruolo dei bias nel dare forma all’inferenza.

Rendere espliciti questi impegni aiuta gli studenti a percepire la data science non solo come una pratica tecnica, ma come un’attività di produzione della conoscenza’[5].

Dati comparativi e transizione tecnologica nelle università top

In conclusione, ricaviamo la considerazione che l’etica degli strumenti di intelligenza artificiale e la formazione universitaria sono indubbiamente legate, e che la finalità educativa appare quella di preparare un nuovo mindware, per comprendere e guidare le tecnologie in modo etico e critico.

Purtuttavia, l’etica dei dati è perlopiù ancora in fase di sviluppo.

Un importante riscontro empirico alla tesi sostenuta emerge dalla ricerca internazionale condotta in collaborazione tra la Aga Khan University e la School of Medicine dell’Università di Lisbona[6] sull’uso dell’AI nelle 50 università top mondiali, che rileva quanto le istituzioni accademiche siano comunque tutte ancora in fase di transizione tecnologica, e che la regolamentazione ha necessità di ulteriori specifiche per reggere il confronto con l’innovazione.

Secondo lo studio, l’82% delle università analizzate (41 su 50) ha reso pubbliche le proprie linee guida, il 100% delle istituzioni consente l’uso della GenAI, e come evidenziato pocanzi, lo vincola a un “accordo” (il contratto sociale) comprensivo del consenso del docente, la trasparenza nelle citazioni e nel riconoscimento dello strumento e le misure di privacy e sicurezza dei dati.

Nella ricerca è stato messo in luce che sono ancora pochissime le linee guida che aiutano gli studenti a comprendere il funzionamento tecnico degli algoritmi e la tracciabilità dei prompt e che non vi sono ancora protocolli chiari per la denuncia delle misconduct.

Rischi di discriminazione algoritmica e studenti non madrelingua

L’esperienza personale induce a riflettere su un’ulteriore criticità riguardante i bias e gli errori negli algoritmi utilizzati per il rilevamento del plagio, ossia il come studenti e studiosi internazionali, in particolare i non madrelingua, possano essere penalizzati: il loro stile di scrittura differisce spesso dai pattern utilizzati per l’addestramento dei modelli, con il rischio che i sistemi di controllo si trasformino in strumenti di discriminazione algoritmica.

Intelligenza artificiale nelle università italiane: linee guida e vuoti uniformi

In Italia, la situazione della sorveglianza tecnologica nel mondo accademico è differente. Non esiste ancora un vero e proprio “contratto sociale” uniforme né una normativa nazionale dettagliata, anche se alcuni atenei hanno introdotto linee guida e contratti sociali interni, ispirandosi a modelli di disclosure e uso etico della GenAI.

Nel 2025 sono state pubblicate le linee guida ministeriali per l’IA[7], uno passo significativo per l’uso etico e sicuro dell’IA, ma non risolvono da sole il problema perché, pur nella loro specificità, rappresentano più una cornice di principi giuridici che una procedura educativa concreta e pronta all’uso.

AI Act europeo e istruzione “ad alto rischio”: obblighi e tutele

Il quadro normativo italiano è fortemente influenzato dall’AI Act europeo (Regolamento UE 2024/1689) che ha previsto una “piramide del rischio”, definendo obblighi giuridici proporzionati alla gravità dei possibili impatti dell’intelligenza artificiale, e ha inserito l’istruzione e la formazione professionale tra i settori “ad alto rischio” (Allegato III), quindi da proteggere maggiormente all’interno del sistema educativo.

Secondo l’AI Act, i sistemi utilizzati per valutare gli studenti o per indirizzare il percorso accademico devono rispettare obblighi rafforzati in materia di trasparenza, supervisione umana e qualità dei risultati.

L’uso di un AI detector per bocciare uno studente, privo di una spiegazione chiara del funzionamento dell’algoritmo, potrebbe essere impugnato legalmente come lesione di un diritto fondamentale.

Una possibile lettura all’indirizzo dato dall’AI act è che l’Europa, a differenza dell’approccio meno restrittivo americano, ponga dei limiti ai sistemi perché potrebbero generare discriminazioni algoritmiche automatizzate.

Due idee di “contratto sociale”: controllo centrale e codifica europea

Se volessimo riutilizzare la formula del contratto sociale, potremmo affermare che l’approccio normativo europeo (ed italiano) sembra rimandare a una visione di derivazione hobbesiana, in cui il controllo centrale diventa l’unico presidio al disordine tecnologico.

Si potrebbe ulteriormente asserire, a favore dell’Europa che, mentre il modello statunitense si presenta molto frammentato dal punto di vista normativo in ordine alla disciplina dei sistemi AI, con linee guida settoriali e derivanti da diverse autorità[8], l’AI Act europeo costituisce invece il primo reale tentativo di codificare un ‘contratto sociale digitale’.

L’Europa, infatti, non si limita a regolare l’aspetto tecnico, ma integra il quadro giuridico-formale con la tutela dei diritti fondamentali, cercando di eliminare il gap tra i principi etici e la loro applicazione pratica.[9]

Il problema dell’intelligenza artificiale così viene interamente risolto sul piano normativo, attraverso l’AI Act, e la governance dell’AI viene delegata alla norma.

Ciononostante, la norma appare particolarmente restrittiva e orientata più alla gestione del rischio e al controllo che alla vera apertura verso un modello etico e consapevole e questo comporta, nelle applicazioni pratiche, un uso dell’AI ancora limitato ed incerto.

Stati Uniti: integrazione pratica anche senza una normativa unitaria

Negli Stati Uniti, al contrario, anche senza una normativa così articolata ed unitaria come quella europea[10], l’AI viene usufruita ed ugualmente inserita nelle attività accademiche e negli altri settori della società.

Questo paradosso solleva parecchi interrogativi su cosa significhi davvero “dominare” la tecnologia, e se la regolazione formale corrisponda sempre alla capacità di integrare davvero la tecnica.

Intelligenza artificiale nelle università italiane: attuazione e principi cardine

Il caso italiano si colloca in questa tensione. L’attuazione dell’AI Act nell’ordinamento italiano è regolata dalla legge 23 settembre 2025, n. 132, entrata in vigore il 10 ottobre 2025 e i principi cardine richiamati sono l’uso ‘antropocentrico’ e sicuro dell’intelligenza artificiale, la trasparenza, l’accessibilità e la protezione dei dati.

Il progetto FAIR, finanziato dal PNRR, ha creato un altissimo progetto di ricerca scientifica sul campo AI, per sviluppare un’IA etica e sostenibile.

I risultati risiedono in una struttura molto articolata delle competenze e degli obiettivi, un’eccellenza nel panorama italiano, con un approccio multidisciplinare dell’AI, dalla Human-centered AI alla Legal and Ethical Design fino a Green-aware AI.

Dal top-down alla didattica quotidiana: il nodo della trasferibilità

In questo progetto l’utilizzo dell’intelligenza artificiale inizia a diventare una skill trasversale, ma FAIR è un progetto ‘top-down’, mentre il modello americano è ‘bottom-up’, accessibile, siglato tra docente e studente: servirebbe, forse, un ancoraggio dai grandi sistemi di ricerca e analisi allo strumento didattico quotidiano, soprattutto per gli studenti non stem.

Così posto, pare che il problema italiano non sia più tanto la mancanza di risorse economiche, visti gli ingenti investimenti del PNRR nel progetto FAIR, quanto piuttosto la capacità di gestione e distribuzione dei fondi.

Sovente i finanziamenti restino bloccati nell’alta ricerca dei ‘tecnici‘, senza trasformarsi in risorse per la didattica quotidiana.

Più che un limite di budget, sembra esserci un limite di vision: l’approccio italiano è il risultato di una resistenza al cambiamento o, piuttosto, di una burocrazia che scoraggia l’integrazione pratica?

Utilità dell’AI, prompt engineering e tradizione critica

La criticità andrà risolta, perché sia gli studenti che i professori sanno quanto sia utile l’AI per analizzare set di dati enormi o simulare casi di studio ed un corso di prompt engineering crea nuove skills.

La tradizione filosofica italiana insegna a diffidare di tutto ciò che non sia frutto di pensiero critico. Ma si può parlare di vera “critica” se non si affronta il problema da prospettive differenti?

Italia e Stati Uniti: efficienza, contratto, dati e proprietà intellettuale

Il divario tra Italia e Stati Uniti è evidente, ma forse il nodo centrale risiede nei diversi focus: quello americano, orientato all’efficienza e al contratto, e quello italiano, che privilegia la tutela dei dati (GDPR) e della proprietà intellettuale, anche sotto l’influenza dell’AI Act europeo.

Nonostante l’Italia si sia dotata di una Strategia Nazionale per l’Intelligenza Artificiale e di organismi come l’AgID, servono linee guida concrete per la didattica o la tutela di docenti e studenti rimarrà sulla carta.

Occorre il coraggio di insistere su una normazione fondata sul principio che regolamentare in modo flessibile è preferibile a vietare.

Resta inoltre da comprendere se l’introduzione dell’intelligenza artificiale nei percorsi accademici e nelle pubbliche amministrazioni italiane rappresenti un imperativo meramente formale, un obiettivo da perseguire per allinearsi alle agende digitali internazionali e favorire la nascita di nuove professionalità, oppure se il Paese tenda piuttosto a rallentare o mantenere un approccio conservativo, privilegiando un modello tradizionale più coerente con la propria visione politica, culturale e sociale.

Percezione dei docenti e motivazioni della resistenza o dell’apertura

Un’ulteriore chiave di lettura emerge se si sposta lo sguardo sulla percezione dei docenti rispetto a queste innovazioni.

In che modo il corpo accademico vive l’introduzione dell’AI nei processi di insegnamento e valutazione?

In questo senso, lo studio “Prompting the Professoriate: A Qualitative Study of Instructor Perspectives on LLMs in Data Science Education” offre uno spunto interessante.

Gli autori intervistano 42 docenti provenienti da 33 istituzioni in nove paesi, documentando atteggiamenti eterogenei, nell’uso di tecnologie di AI, dal rifiuto di adottare gli LLM, fino alla sperimentazione e all’accoglimento del modello[11].

La ricerca solleva così un’altra questione centrale: quali sono le motivazioni che spingono verso un approccio di apertura, o al contrario verso una resistenza all’utilizzo dell’AI nel settore dell’istruzione e della formazione?

Sotto questo ulteriore profilo, il problema non sembra essere l’intelligenza artificiale in sé, quanto il timore che essa suscita in chi la percepisce esclusivamente come uno escamotage, anziché come una tecnologia capace di ampliare le possibilità della ricerca e della formazione.

Un quadro etico olistico e la sfida culturale italiana

In conclusione, la migliore delle risposte e’ sottolineata da Floridi e colleghi nel framework AI4People—An Ethical Framework for a Good AI Society (2018) e costituisce una soluzione olistica al problema:

‘’Che l’intelligenza artificiale avrà un impatto rilevante sulla società non è più in discussione. Il dibattito riguarda piuttosto quanto tale impatto sarà positivo o negativo, per chi, in quali modalità, in quali luoghi e su quale arco temporale. Le domande centrali non sono più se l’IA avrà un impatto, ma da chi, come, dove e quando tale impatto verrà percepito.

L’intelligenza artificiale offre importanti opportunità per la società, strettamente legate alla dignità e alla fioritura umana: chi possiamo diventare, che cosa possiamo fare, che cosa possiamo raggiungere e come possiamo interagire tra noi e con il mondo. Tuttavia, tali opportunità possono trasformarsi in costi o rischi, sia a causa di un sottoutilizzo dell’IA, dovuto a paura, ignoranza o regolamentazioni errate, sia a causa di un uso eccessivo o deliberatamente improprio.

Per questo motivo, lo sviluppo e l’adozione dell’IA devono essere guidati da principi etici e da una governance responsabile, così da massimizzarne i benefici e ridurne i rischi, contribuendo a una società più giusta e inclusiva.»[12]

La challenge per il sistema accademico italiano ora è quella di oltrepassare la logica di adempimento formale, assumendosi la responsabilità culturale dell’innovazione, e trasformando i principi etici e le norme giuridiche in vere e proprie pratiche formative concrete.

Note

[1]Michael Dukakis, Marc Rotenberg, et al., Social Contract for the AI Age, Boston Global Forum and Michael Dukakis Institute for Leadership and Innovation, 2020. Disponibile su: https://dspace.mit.edu/handle/1721.1/144065

[2] https://www.youtube.com/watch?v=ZkLkDvG6bbc

[3]Sulle fondamenta filosofiche della scienza dei dati e dell’AI Data Governance Is Key to Interpretation: Reconceptualizing Data in Data Science” di Sabina Leonelli (2019) e “A Unified Framework of Five Principles for AI in Society” di Luciano Floridi e Josh Cowls (2019).

[4] Vega, C. (2026). ‘’Teaching philosophy of science to data scientists’’, Harvard Data Science Review, 8(1).

[5] Vega, C., Ibidem

[6]Assessing the Guidelines on the Use of Generative Artificial Intelligence Tools in Universities: A Survey of the World’s Top 50 Universities, Big Data Cogn. Comput. 2024, 8(12), 194; https://doi.org/10.3390/bdcc8120194

[7]Linee guida per l’introduzione dell’Intelligenza Artificiale nelle Istituzioni scolastiche Versione 1.0 Anno 2025 b70fdc45-4b75-1f7e-73bf-eab12989b928

[8] The White House, Executive Order on the Safe, Secure, and Trustworthy Development and Adoption of Artificial Intelligence, 30 ottobre 2023- www.whitehouse.gov.

The National AI Initiative Act (2020) https://www.congress.gov/bill/116th-congress/house-bill/6216

[9] Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024, che stabilisce regole armonizzate sull’intelligenza artificiale (Legge sull’intelligenza artificiale).

[10]Fonte online (Agenda Digitale): Cataleta A., Grillo A. (2024). Stati Uniti, tutte le leggi sull’intelligenza artificiale: il quadro. Agenda Digitale. https://www.agendadigitale.eu/cultura-digitale/leggi-sullintelligenza-artificiale-ecco-la-complessa-roadmap-usa/

[11]Lopez-Miranda, A. E., Timbers, T., & Alexander, R. (2026). Prompting the professoriate: A qualitative study of instructor perspectives on LLMs in data science education. Harvard Data Science Review, 8(1). https://doi.org/10.1162/99608f92.c8780a45

[12] Floridi, L., Cowls, J., Beltrametti, M., Chatila, R., Chazerand, P., Dignum, V., … & Vayena, E. (2018). AI4People—An Ethical Framework for a Good AI Society: Opportunities, Risks, Principles, and Recommendations. Minds and Machines, 28(4), 689–707. https://doi.org/10.1007/s11023-018-9482-5

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x