la lettura

Matematica e AI: la nuova alleanza che riscrive la conoscenza



Indirizzo copiato

Dalle prime teorie di Turing alle reti neurali moderne, l’intelligenza artificiale ha ridefinito il concetto di conoscenza, passando dalla codifica di regole alla capacità di apprendere autonomamente, fino alla generazione di contenuti e modelli che affiancano la scienza tradizionale. Estratto da: “L’intelligenza creata. L’AI e il nostro futuro”, Hoepli, 2025

Pubblicato il 24 ott 2025

Alfio Quarteroni

Politecnico di Milano e Politecnico di Losanna Accademia dei Lincei



AI e matematica

L’intelligenza artificiale rappresenta oggi una delle più grandi rivoluzioni del pensiero scientifico e tecnologico. Dalle sue origini teoriche fino alle applicazioni più recenti, la sua evoluzione riflette un continuo dialogo tra conoscenza umana, dati e capacità di apprendimento delle macchine.

Le origini e la trasformazione dell’intelligenza artificiale

Sin dagli anni ’50, pionieri come Alan Turing e John McCarthy hanno gettato le basi di quella che oggi definiamo AI. Da allora, la definizione stessa di AI è cambiata continuamente, riflettendo la molteplicità degli obiettivi che ha assunto: dalla cosiddetta AI debole, o ristretta, che ha obiettivi limitati, all’AI generale, simile all’intelligenza umana, fino all’idea di una superintelligenza artificiale che, in teoria, potrebbe persino superare quella umana. Al momento, siamo ancora dentro i confini dell’AI ristretta, che aiuta l’uomo in compiti specifici senza entrare in competizione con l’intelligenza umana in senso più ampio.

Ciononostante, l’AI possiede abilità straordinarie, che noi umani fatichiamo a replicare: la capacità di elaborare enormi quantità di dati, di sintetizzare rapidamente informazioni complesse, anticipare comportamenti di consumo con una precisione sorprendente e, da poco, generare testi, poesie e racconti, immagini e film, in frazioni di secondo. Nella sanità, poi, le reti neurali possono scovare diagnosi che potrebbero sfuggire agli specialisti. In molti casi, l’AI sfida la nostra concezione dell’agire umano e della presa di decisioni, sollevando interrogativi sul controllo e sulla responsabilità.

Il cuore del progresso dell’AI risiede nella capacità dei computer di apprendere autonomamente, principalmente attraverso l’uso delle reti neurali artificiali. Questo processo si basa sulla capacità di addestramento di queste ultime grazie alla disponibilità di dati (spesso, ma non sempre, di Big Data) più che sulla teoria scientifica tradizionale. Naturalmente i dati di addestramento devono essere significativi relativamente al compito che si intende affrontare. In un certo senso, l’esperienza codificata nei dati ha preso il sopravvento sulla teoria, sovvertendo il paradigma della scienza moderna.

La nascita del machine learning e il nuovo paradigma dell’apprendimento

Negli anni ’90 (…) i ricercatori compresero che era necessario adottare un nuovo approccio, che permettesse alle macchine di apprendere in autonomia, producendo un cambiamento di paradigma: passare dall’idea di codificare intuizioni umane nelle macchine a quella di delegare il processo di apprendimento stesso a queste ultime. Sebbene l’apprendimento automatico esistesse sin dagli anni ’50, sono state le nuove scoperte a consentire applicazioni pratiche.

I metodi più efficaci in questo campo estraggono schemi da ampi set di dati attraverso reti neurali. Ad esempio, per riconoscere l’immagine di un gatto, i ricercatori hanno capito che una macchina deve imparare diverse rappresentazioni visive dei gatti osservando gli animali in vari contesti. In questo modo, ciò che conta per l’apprendimento automatico è la pluralità delle diverse rappresentazioni di un oggetto, piuttosto che il suo ideale (o, peggio ancora, la sua definizione).

I moderni algoritmi di AI hanno la capacità di apprendere tipi e schemi, ad esempio raggruppamenti di parole che si trovano spesso insieme quando si voglia analizzare il linguaggio naturale, o caratteristiche più frequentemente presenti in un’immagine quando si tratta di un gatto, e poi di dare un senso alla realtà identificando reti di somiglianze e analogie con ciò che l’AI già conosceva. Anche se l’AI non potrà probabilmente mai conoscere nello stesso modo in cui lo sa fare una mente umana, un accumulo di corrispondenze con gli schemi della realtà potrebbe approssimare e talvolta superare le prestazioni della percezione e della ragione umane.

E’ così che ha preso forma il moderno campo dell’apprendimento automatico, o machine learning, costituito da programmi che apprendono attraverso l’esperienza.

Algoritmi adattivi e apprendimento automatico

La caratteristica distintiva degli algoritmi di AI basati sul machine learning è che, attraverso l’apprendimento automatico, essi modificano i propri comportamenti e risultati in base ai dati che ricevono. Questo implica una capacità di “evoluzione” o “adattamento” che non esiste negli algoritmi tradizionali. L’AI utilizza tecniche come l’apprendimento supervisionato, non supervisionato o rinforzato per migliorarsi nel tempo: può gestire dati complessi, fare previsioni o identificare schemi senza che ogni singolo comportamento sia specificato da un programmatore umano.

Dunque, mentre un algoritmo tradizionale è statico (non si evolve con i nuovi dati), un sistema di AI apprende e si adatta. È capace di generalizzare partendo da dati e modelli preesistenti per applicarli a nuovi casi o scenari che non ha mai incontrato prima. Questo apprendimento adattivo è cruciale per compiti come il riconoscimento delle immagini, la comprensione del linguaggio naturale o le raccomandazioni personalizzate.

L’AI generativa e il fascino dell’intelligenza che crea

L’AI generativa ha catturato molta attenzione grazie ai suoi successi popolari, come i chatbot conversazionali (es. ChatGPT), i generatori di immagini (ad esempio DALL-E e MidJourney) e gli strumenti creativi di testi, musica o arte. Tuttavia, questo clamore rischia di oscurare i contributi significativi e di lunga data dell’AI tradizionale, non generativa, che ha avuto un impatto altrettanto, se non più, profondo in molti ambiti cruciali della società.

Esistono in realtà alcune differenze fondamentali fra AI generativa e AI tradizionale.

L’AI generativa è progettata per creare nuovi contenuti: testi, immagini, audio, video, basandosi su modelli di deep learning addestrati su grandi quantità di dati. È al centro di molte applicazioni recenti che hanno un forte impatto mediatico, grazie alla loro capacità di imitare la creatività umana e ovviamente alla sua capacità di coinvolgere direttamente il pubblico. Strumenti come i chatbot o i generatori di immagini permettono un’interazione diretta con gli utenti, catturando rapidamente la loro immaginazione. La capacità di produrre contenuti “originali”, come poesie, articoli o opere d’arte, la rende affascinante e accessibile.

I progressi nell’AI sono arrivati in successione rapida, sorprendendo il pubblico e mostrando progressi evidenti nel modo in cui le macchine possono generare output che prima erano esclusivamente umani.

Come esseri umani, tendiamo naturalmente a considerare le capacità linguistiche e la padronanza del linguaggio come segni di intelligenza avanzata. Dopotutto, siamo l’unica specie dotata di parola, e ci teniamo a preservare questa caratteristica esclusiva. Alcuni hanno persino ipotizzato una “quarta ferita narcisistica” per l’umanità: dopo aver rinunciato al geocentrismo con Copernico, allo status speciale di specie con Darwin e al controllo totale della psiche con Freud, ora ci troveremmo a rinunciare anche al monopolio sul linguaggio! E così, vediamo le applicazioni di AI che conversano con noi come entità pensanti, simili all’uomo, e persino concorrenti.

L’incontro tra modelli matematici e AI: una sinergia per la conoscenza

A questo stadio dell’evoluzione della scienza, una domanda che pensiamo si debba porre in modo spontaneo è: come possiamo far coesistere i modelli matematici costruiti sul patrimonio di conoscenza teorica con gli algoritmi dell’AI che fanno invece premio sull’esperienza codificata nei Big Data? Come possiamo utilizzare machine learning e reti neurali artificiali non in alternativa ai modelli matematici basati sulle leggi fisiche ma in sinergia con essi, generando un binomio dal potenziale straordinario? In linea di principio, diverse e svariate sono le strategie che si possono realizzare per coniugare la scienza dei Big Data con quella delle leggi fisiche universali e dei corrispondenti modelli matematici, generando algoritmi i quali, continuando a ricorrere alla metafora cromatica precedente, potremmo considerare di tipo grey-box.

La comprensione dei computer è, almeno parzialmente, identificabile con i dati ritenuti importanti per ottenere un certo risultato, offrendo un primo scorcio su cosa sia stato appreso. Possiamo quindi confrontare questa comprensione con il corpus di conoscenze esistenti e cercare di rispondere alla domanda del “come” hanno appreso e “perché” la macchina abbia ritenuto importanti quei dati.

I modelli matematici basati sulla comprensione fisica, dal canto loro, si alimentano con dati che stabiliscono condizioni iniziali e al contorno, prescrivono parametri fisici quali i coefficienti dei termini delle equazioni, nonché termini sorgenti e forzanti. Per questi modelli, un surplus di dati non è né richiesto né utile. Infatti, un modello matematico richiede esattamente il numero e tipo di dati necessari e sufficienti per il suo funzionamento, né uno in più, né uno in meno.

Allo stesso modo, quando si usano reti neurali, non sempre sono disponibili le grandi quantità di dati che servirebbero per il loro addestramento. Questo è spesso il caso in cui si usano algoritmi di machine learning per assistere medici in diagnosi preliminari (o precoci) di alcune specifiche patologie, dove la disponibilità di dati (che dovrebbero essere generati da opportuni gruppi di pazienti) potrebbe essere limitata. Nel caso si vogliano ugualmente utilizzare reti neurali artificiali in situazioni di scarsità di dati, un modello matematico potrebbe surrogare questa scarsità, generando soluzioni numeriche del problema (ad esempio, un disturbo cardiaco) che vadano poi a completare il training set delle stesse reti neurali.

In questo specifico esempio, il modello matematico dovrebbe essere in grado di simulare accuratamente la fisiologia cardiaca, integrando equazioni come le leggi di Maxwell per il campo elettrico, la meccanica dei continui per la deformazione del miocardio e le equazioni di Navier-Stokes per la dinamica dei fluidi, contributi di grandi scienziati che hanno trovato leggi invarianti nel tempo e nello spazio. Queste leggi di natura diventano quindi soluzioni che a loro volta assumono il ruolo di nuovi dati che alimentano e arricchiscono il training set delle reti neurali.

Ecco un esempio eloquente di come i modelli matematici possano essere impiegati a favore di queste ultime. Altri esempi includono l’uso delle equazioni del modello matematico per arricchire la funzione di costo (la loss function) con termini aggiuntivi che “informano” l’algoritmo di machine learning circa il processo fisico alla base del problema in questione.

In modo speculare, in altri scenari dove mancano informazioni sulle leggi costitutive di nuovi materiali o coefficienti fisici che completino il modello matematico, le reti neurali basate sui dati possono essere utilizzate per inferire tali relazioni di tipo input-output, sebbene non possano ancora sintetizzare queste conoscenze in modo formale, ovvero attraverso rigorose formule matematiche. Inoltre, gli algoritmi basati sui dati possono essere utilizzati per ideare algoritmi numerici surrogati a basso costo che migliorano l’efficienza computazionale complessiva dei modelli numerici basati sulla fisica. La sinergia tra modelli matematici basati sulle leggi fisiche e gli approcci data-driven, come il machine learning, rappresenta un’opportunità di arricchimento della conoscenza anziché una competizione tra approcci. Con buona pace di Anderson, l’AI non porta alla “End of Theory”, ma diventa uno strumento prezioso per far avanzare la conoscenza teorica. I modelli physics-based e quelli data-driven, infatti, possono lavorare sinergicamente per affrontare complessità e limitazioni di ognuno dei due rispettivi approcci in diversi contesti.

L’impatto dell’intelligenza artificiale sul futuro umano

L’AI sta (….) trasformando le macchine da semplici strumenti a veri e propri partner delle persone, il che porterà a un cambiamento radicale della nostra identità e della nostra percezione della realtà, in una trasformazione forse senza precedenti dai tempi dell’inizio dell’era moderna. La portata dell’AI è quindi significativa non solo in termini tecnologici, ma anche storici e filosofici. Tentare di fermare il suo sviluppo potrebbe semplicemente lasciare che il futuro sia plasmato da coloro che saranno disposti ad affrontare le sfide e le implicazioni di questa nuova era.

L’integrazione continua dell’AI nella nostra quotidianità promette di realizzare obiettivi che fino a poco tempo fa sembravano irraggiungibili e di affrontare compiti considerati esclusivamente umani – come la creazione artistica o la scoperta di nuovi farmaci – grazie a una collaborazione tra esseri umani e macchine e sistemi informatici, o in alcuni casi grazie al lavoro delle macchine stesse. Questo progresso ridisegnerà interi settori attraverso processi sostenuti dall’AI, sfumando il confine tra decisioni esclusivamente umane, decisioni autonome dell’AI e decisioni collaborative tra uomini e AI.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati