il confronto

L’IA in Università: i tre atenei pubblici milanesi a confronto



Indirizzo copiato

Le università affrontano la sfida dell’IA con strategie diverse per regolamentarne l’uso tra gli studenti. Milano emerge come un centro di sperimentazione e innovazione in questo campo, con le sue università che adottano approcci vari per integrare l’IA nell’educazione, dimostrando un panorama eterogeneo di risposte al fenomeno in rapida evoluzione dell’intelligenza artificiale

Pubblicato il 17 mag 2024

Giulia Sironi

Ricercatrice Junior, Digital Transformation and Wellbeing Lab (DiTWeL) Bicocca



blockchain-e-laurea

La conversazione che segue è il frutto dell’interazione tra un utente e una IA generativa. Una scrittura chiara e schematica, così potremmo definire le capacità di redazione di questi strumenti.

Uno scambio che ci dà lo spunto per esaminare, anche, in che modo le tre università pubbliche milanesi si stanno approcciando all’intelligenza artificiale.

Come le Università dovrebbero regolamentare l’IA, secondo l’IA

“Le università come dovrebbero regolamentare l’utilizzo di tool di intelligenza artificiale da parte degli studenti?

La regolamentazione dell’uso degli strumenti di intelligenza artificiale (AI) da parte degli studenti nelle università è un tema complesso e in evoluzione. Non esiste una risposta univoca che vada bene per tutti, poiché le università hanno esigenze e priorità diverse. Tuttavia, ci sono alcuni principi generali che le università possono considerare quando sviluppano le proprie politiche.

Trasparenza

  • Le università dovrebbero essere trasparenti su come vengono utilizzati gli strumenti di intelligenza artificiale e su quali dati vengono raccolti.
  • Gli studenti dovrebbero essere informati su come i loro dati vengono utilizzati e su come possono accedervi e correggerli.

Equità

  • Le università dovrebbero garantire che gli strumenti di intelligenza artificiale siano utilizzati in modo equo e non discriminatorio.
  • Ciò significa garantire che gli strumenti non siano utilizzati in modo da svantaggiare un particolare gruppo di studenti.

Responsabilità

  • Le università dovrebbero essere responsabili dell’utilizzo degli strumenti di intelligenza artificiale.
  • Ciò significa disporre di procedure in atto per garantire che gli strumenti vengano utilizzati in modo sicuro e appropriato.

Scopo educativo

  • Gli strumenti di intelligenza artificiale dovrebbero essere utilizzati per migliorare l’apprendimento degli studenti, non per sostituire l’insegnamento o la valutazione umana.
  • Le università dovrebbero garantire che gli strumenti vengano utilizzati in modi che siano allineati con i loro obiettivi educativi.

Competenze digitali

  • Le università dovrebbero fornire agli studenti le competenze di cui hanno bisogno per valutare criticamente gli strumenti di intelligenza artificiale e comprenderne i limiti.
  • Ciò aiuterà gli studenti a prendere decisioni informate sull’utilizzo o meno di questi strumenti.

Oltre a questi principi generali, le università dovrebbero considerare anche le specifiche implicazioni dell’utilizzo di strumenti di intelligenza artificiale nei diversi contesti. Ad esempio, le università potrebbero avere bisogno di politiche diverse per l’utilizzo di strumenti di intelligenza artificiale negli incarichi di valutazione rispetto all’utilizzo di strumenti di intelligenza artificiale per la ricerca.

È importante notare che la regolamentazione dell’uso degli strumenti di intelligenza artificiale da parte degli studenti è un processo in corso. Le università dovranno continuare a rivedere le proprie politiche man mano che la tecnologia si evolve e si sviluppano nuove applicazioni. […]”

Tra le fonti che hanno contribuito ad esaltarne ulteriormente le abilità annoveriamo la circolazione di articoli di giornale come il seguente: “ChatGpt: l’intelligenza artificiale supera il test d’ammissione all’università al posto dello studente” (La Stampa, 2023). Il giornalista riporta infatti la vicenda di alcuni docenti dell’università di Torino che hanno dimostrato che i software generativi sono in grado di superare gli esami del primo anno del corso di informatica e di scrivere correttamente una tesi di laurea. Narrazioni di questo tipo suscitano scalpore in ambito accademico e, allo stesso tempo, responsabilizzano le istituzioni universitarie, le quali devono equipaggiarsi adeguatamente per normare e regolare il fenomeno.

In questo clima di allarmismo e di corsa agli armamenti arriverà poco dopo in Italia la prima policy universitaria in materia IA. Si tratta dell’Università di Siena che, in seguito all’approvazione da parte del Senato Accademico, ha pubblicato la policy “per l’utilizzo di ChatGPT e altri Large Language Models (LLM)” (Università di Siena, 2023).

Come sta gestendo l’IA l’Università Statale di Milano

Inauguriamo, allora, il nostro “viaggio” sul territorio milanese scegliendo come prima tappa l’Università degli Studi di Milano Statale, ateneo situato a pochi passi dal duomo e che quest’anno festeggia i cento anni dalla sua fondazione. Ho avuto modo di potermi confrontare con il professor Paolo Boldi, docente di informatica presso la Statale da oltre venticinque anni. Egli è inoltre presidente di un gruppo di ricerca che a partire dal 2023 lavora su come applicare i Large Language Models alla didattica, sfruttando appieno tutte le opportunità e cercando di destreggiarsi tra i pericoli e rischi che questi strumenti portano con sé.

Linee guida per l’uso dell’intelligenza artificiale nell’insegnamento e nell’apprendimento

Tale gruppo, nel giro di circa un anno, ha portato a termine svariati progetti, tra cui la stesura delle “Linee guida per l’uso dell’intelligenza artificiale nell’insegnamento e nell’apprendimento”, le quali per il momento si applicano soltanto al Dipartimento di Informatica. “Noi le abbiamo scritte con l’idea che fossero d’ ateneo nel senso che se lei le guarda non sono specifiche per l’informatica […] quindi la spiegazione sarebbe che queste linee guida o una loro variante venga adottata dall’ateneo al più presto” così afferma Boldi, fiducioso che una volta superata la delicata e impegnativa fase delle elezioni rettorali, questo documento possa assumere le sembianze di un provvedimento per l’intero ateneo.

L’alfabetizzazione dei docenti

Tra le altre iniziative di cui mi ha parlato il docente, troviamo anche ciò che egli definisce come “pillola”, un seminario di circa due ore che mira a informare i colleghi su cosa sono gli LLM, come funzionano e che tipo di impatto possono avere nel loro lavoro. Con questo tipo di iniziative il dipartimento di informatica, afferma il professor Boldi, si prende carico di “alfabetizzare” i colleghi, di metterli cioè in grado di sfruttarne le opportunità e proteggersi dai rischi.

Solo se correttamente informati su questi strumenti i docenti possono adempire a quella che per l’intervistato è una necessità impellente: parlare con gli studenti in modo chiaro sugli usi possibili, sui vantaggi e gli svantaggi di questi strumenti.

La preparazione degli studenti per il mondo del lavoro

Dall’intervista emerge infine un crescente interesse delle parti sociali affinché gli studenti imparino a utilizzare strumenti di intelligenza artificiale. Il professore ha potuto constatarlo di persona in occasione dell’incontro annuale tra i corsi di laurea e le aziende. Sono state diverse le realtà aziendali che hanno chiesto ai docenti se in Statale si insegnasse o meno l’utilizzo di tool di IA generativa per la programmazione. Il motivo di questo interesse è semplice, sul posto di lavoro gli informatici possono usare questi strumenti, quindi, è bene che i futuri nuovi assunti siano preparati.

L’IA al Politecnico di Milano

Lasciamo ora il cuore della città per spostarci alla sede Politecnico di Milano di Piazza Leonardo Da Vinci. Qui troviamo la professoressa Susanna Sancassani alla guida del METID (metid.polimi.it), acronimo di Metodi e Tecnologie Innovative per la Didattica.

La task force per la formazione dei docenti

Si tratta di una task force che ha come aree di interesse la formazione dei docenti in ambito di innovazione didattica, ma non solo. Tra i suoi obiettivi rientra anche l’ideazione di MOOC fruibili anche da studenti e professionisti. Infine, il centro è coinvolto in progetti nazionali e internazionali legati agli ambiti di ricerca. Ciò che emerge dall’intervista è che il Politecnico si è approcciato all’ingresso dell’IA in accademia seguendo una strategia molto diversa rispetto alla Statale.

Sancassani afferma infatti che il PoliMI ha avviato una fase di sperimentazione in quanto viene data la possibilità ai docenti di studiare come confrontarsi con una platea di studenti che ormai ha accesso ai software generativi, una novità in campo accademico. Tale sperimentazione terminerà a fine anno, momento in cui avrà luogo un lavoro di raccolta di tutte le pratiche didattiche utilizzate, in modo da valutare quelle che sono risultate più significative e utili all’insegnamento. In questo modo il Politecnico ha intenzione di giungere alla stesura delle linee guida per la regolamentazione dell’IA generativa: delle linee guida emerse dalla prassi.

Il Codice Etico e di Comportamento

Nel corso dell’intervista sono emersi altri progetti interessanti che l’ateneo sta portando avanti, uno di questi è Beyond Academic integrity che ha portato alla redazione di un Codice Etico e di Comportamento (polimi.it/i-nostri-valori). Nonostante l’intelligenza artificiale non sia citata nel documento, la docente ribadisce ancora una volta la posizione assunta dai docenti nel corso di questa enorme sfida per il mondo accademico. L’intervistata afferma che piuttosto che concentrarsi sulla stesura di norme e regole restrittive che riguardano la corretta citazione dei tool di IA generativa, la stesura di documenti che contengano l’elenco dei prompt utilizzati per la costruzione di una produzione scritta, in Politecnico si sta seguendo una strada alternativa. Si sta infatti lavorando molto in ambito di integrità accademica perché quello che i docenti vogliono trasmettere agli allievi è che l’università “è un momento veramente irripetibile della vita di ciascuno studente […]quindi puntiamo più su questa dimensione di responsabilizzazione e di trasformazione delle richieste”. Sancassani ha fatto infatti riferimento a una nuova costruzione delle prove che devono essere sottoposte agli studenti, prove in cui si può utilizzare l’IA, ma comunque dotate della giusta complessità in quanto richiedono “un impegno importante non semplicemente redazionale ma veramente concettuale da parte […] dello studente”.

L’innovazione didattica

C’è da dire che sul versante dell’innovazione didattica il Politecnico è decisamente ben equipaggiato. È infatti il primo ateneo in Italia ad aver sviluppato un tool di IA generativa per scopi didattici (Polimi: 160 anni di innovazione guardando al futuro con l’Intelligenza Artificiale, Il Sole 24 Ore, 2023). Tale strumento ha trovato applicazione proprio nel corso tenuto da Sancassani, Teaching strategies nella scuola di dottorato. Si tratta di Mylearningtalk, una chat addestrata sui contenuti del corso della docente in grado di supportare gli studenti nello studio. Può infatti aiutare gli utenti a orientarsi nella progettazione di un percorso didattico, può generare dei quiz, fornire dei feedback agli studenti e generare degli esempi. In questo progetto è stata determinante la sinergia instaurata con il Centro dell’intelligenza artificiale d’ateneo che costituisce, insieme al METID, uno degli interlocutori che probabilmente avrà un ruolo determinante nella futura fase di redazione delle linee guida del Politecnico.

L’Università degli studi di Milano Bicocca

Approdiamo infine all’ultima tappa del nostro percorso, l’Università degli studi di Milano Bicocca, ateneo molto più giovane rispetto ai precedenti in quanto ha appena terminato i festeggiamenti per i venticinque anni di attività.

Il Digital Transformation and Wellbeing Lab

Tra gli attori coinvolti e più attivi in ambito IA figura il Digital Transformation and Wellbeing Lab (digitalwellbeing.eu), centro di ricerca, innovazione e formazione guidato dal professor Marco Gui. Il DiTWeL è una realtà interdipartimentale in quanto composta da figure accademiche molto diverse tra loro ma unite dal profondo interesse e sensibilità per la trasformazione digitale e i suoi effetti.

La diversità è la vera forza di questo team, il quale ha aperto degli spazi per il confronto e dibattito in vista della redazione delle linee guida di Ateneo sotto la supervisione di Federico Cabitza, esperto di intelligenza artificiale nonché autore del libro “Intelligenza artificiale. L’uso delle nuove macchine” pubblicato nel 2021 in collaborazione con il celebre filosofo Luciano Floridi. Il centro gode infine di una consistente autorevolezza in materia di educazione in quanto tra i suoi componenti troviamo diversi esponenti del Dipartimento di Scienze della Formazione “Riccardo Massa”, famosi in ateneo per essere particolarmente proattivi e specializzati sugli effetti delle tecnologie nella didattica. Dopo che ogni opinione espressa è stata adeguatamente analizzata sotto diversi aspetti, il risultato del lavoro del DiTWeL è stato presentato al PQA, organo deputato al miglioramento della qualità della didattica. Il prorettore alla didattica ha approvato le misure proposte, perciò attualmente l’Università Bicocca si trova vicina all’effettiva pubblicazione delle proprie linee guide in materia IA.

Conclusioni

Il quadro appena delineato mostra una situazione eterogenea in quanto è emerso che le tre università milanesi si sono approcciate al fenomeno dell’IA seguendo strategie diverse tra loro. La questione ora non è tanto stabilire quale sia l’ateneo che abbia affrontato meglio questa sfida poiché non siamo nella posizione per poter formulare delle valutazioni.

Ci troviamo infatti ancora completamente immersi nel turbinio delle scoperte che, giorno dopo giorno, diventano sempre più frequenti e sconvolgenti in campo IA. Infine, dalle interviste traspare chiaramente come gli atenei si stiano muovendo in quasi totale autonomia, imboccando le strade che loro ritengono più opportune. Non godono infatti di un aiuto concreto e diretto da parte dei legislatori nonostante l’IA trovi comunque posto nelle agende di governo.

Bibliografia

Benasayag, M. (2021). La singolarità del vivente. Jaca Book.

Di Paco, L. (2023, 27 aprile). “ChatGpt: l’intelligenza artificiale supera il test d’ammissione all’università al posto dello studente”. La Stampa. https://www.lastampa.it/torino/2023/04/27/news/chatgpt_intelligenza_artificiale_supera_test_esami_tesi_universita-12775958/#:~:text=studente%20%2D%20La%20Stampa-,ChatGpt%3A%20l’intelligenza%20artificiale%20supera%20il%20test%20d’ammissione,università%20al%20posto%20dello%20studente&text=La%20risposta%20è%20sì.,e%20superarli%20con%20discreto%20successo.

Intelligenza artificiale, all’Ateneo senese scrive le prime regole per il suo utilizzo. (2023, 5 settembre). T24 Il quotidiano economico toscano. https://t24.ilsole24ore.com/art/intelligenza-artificiale-lateneo-senese-scrive-le-prime-regole-per-il-suo-utilizzo

GPDP. (2023, 31 marzo). Intelligenza artificiale: il Garante blocca ChatGPT. Raccolta illecita di dati personali. Assenza di sistemi per la verifica dell’età dei minori. [comunicato stampa]. https://www.garanteprivacy.it/home/docweb/-/docweb-display/docweb/9870847

Klune, TJ. (2023). “Capitolo 11” in “Nella vita dei burattini”, pp. 170-172. Mondadori.

Polimi: 160 anni di innovazione guardando al futuro con l’Intelligenza Artificiale. (2023, 20 novembre). Redazione Scuola. Il Sole 24 Ore. https://www.ilsole24ore.com/art/polimi-160-anni-innovazione-guardando-futuro-l-intelligenza-artificiale-AFkzJYiB

Rimini meeting. (2022, 25 agosto). La macchinizzazione dell’uomo e l’umanizzazione della macchina . Youtube. https://www.youtube.com/watch?v=FjJUzgSGV9k

Università di Siena (2023, 11 luglio). Linee Guida per l’utilizzo di ChatGPT (Generative Pretrained Transformer) ed altri modelli di LLM (Large Language Model). https://www.unisi.it/node/22249

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4