l’evoluzione

Alle radici dell’intelligenza artificiale: un mosaico di saperi



Indirizzo copiato

L’intelligenza artificiale non nasce nel 1956 ma da un intreccio di idee, scoperte scientifiche e sogni filosofici. Le sue radici affondano nell’automazione, nella logica e nelle neuroscienze, e ancora oggi ne definiscono la direzione evolutiva

Pubblicato il 11 nov 2025

Vittorio Midoro

già dirigente di ricerca CNR presso l'Istituto Tecnologie Didattiche



tpu gpu

È largamente diffusa una ricostruzione delle origini dell’Intelligenza Artificiale che considera, come evento fondante, il seminario organizzato da McCarthy, Minsky, Rochester e Shannon, nel 1956 al Dartmouth College.

Oltre il mito di Dartmouth: l’intelligenza artificiale come rete di saperi

Se è vero che la locuzione Intelligenza Artificiale nacque in quell’occasione, è fuorviante ridurre le origini dell’IA principalmente a quell’evento, con il risultato di distorcere una realtà complessa e oscurare la vasta trama di idee, principi, teorie, metodi, tecniche da cui questo settore è nato e si sta sviluppando.

Per catturare questa complessità si può immaginare l’IA come un albero con un articolato intreccio di radici che si sviluppa in due tronchi con una ricca chioma. Senza alcuna pretesa di completezza, vediamo brevemente, per sommi capi, le principali radici e i due tronchi.

Le radici dell’intelligenza artificiale

Per comprendere le origini dell’intelligenza artificiale è necessario guardare alle sue molteplici radici: un intreccio di scoperte scientifiche, trasformazioni tecnologiche e visioni filosofiche che, nel tempo, hanno reso possibile l’idea stessa di una mente artificiale.

L’automazione e la nascita del lavoro meccanizzato e digitale

Nel 1776 Adam Smith, con La ricchezza delle nazioni, teorizza la divisione del lavoro come principio per aumentare la produttività. Nel 1771, Richard Arkwrigh realizza la prima fabbrica con telai ad acqua, dove il lavoro è organizzato in compiti parcellizzati e la forza dell’acqua sostituisce quella dell’uomo. Pochi anni dopo, nel 1786, Boulton e Watt introducono il motore a vapore, che svincola le fabbriche dalla vicinanza a corsi d’acqua. Nasce così la fabbrica moderna in contesti urbani e con essa, la classe operaia: il lavoro manuale viene progressivamente scomposto e affidato alle macchine.

Nell’ottocento, questa meccanizzazione si estende ad attività intellettuali. Charles Babbage progetta la Difference Engine (1822) e la Analytical Engine (1837), calcolatrici meccaniche, che cercano di sostituire le persone (chiamate computer) che calcolavano manualmente le tavole logaritmiche.

Il lavoro intellettuale inizia a essere tradotto in operazioni logiche e meccaniche. Nel novecento, Taylor elabora l’organizzazione scientifica del lavoro, e Ford la applica nella catena di montaggio: nasce la produzione di massa.

Dagli anni cinquanta ai settanta arrivano i robot industriali e l’automazione rigida; dagli anni ottanta, l’automazione flessibile e la produzione agile, che utilizzano tecniche di IA.

La cibernetica: comunicazione, controllo e sistemi auto-organizzanti

La cibernetica nasce tra gli anni quaranta e cinquanta con le Conferenze Macy (1946–1953), che riuniscono scienziati come Wiener, McCulloch, Bateson, von Neumann e Shannon. L’obiettivo è comprendere i meccanismi di comunicazione e controllo nei sistemi viventi e nelle macchine.

Nel 1948, Wiener pubblica Cybernetics, definendo i concetti chiave: feedback, informazione, sistema, analogia uomo-macchina. Da queste ricerche nascono le prime applicazioni nell’automazione e nei calcolatori.

Negli anni sessanta, la cibernetica si diffonde in campi come la psicologia, la sociologia e la pedagogia, e ispira la nascita della prima IA, basata su modelli logici e regolativi. Negli anni settanta e ottanta, con Heinz von Foerster, Maturana e Varela, si sviluppa la seconda cibernetica, che sposta l’attenzione dai sistemi controllati dall’esterno ai sistemi auto-organizzanti, capaci di adattarsi e autogenerarsi.

Oggi la cibernetica è alla base di molti campi: informatica, IA, robotica, neuroscienze, teoria dei sistemi complessi, ecologia e scienze sociali.

La scienza dell’informazione e la logica dei dati

La scienza dell’informazione nasce nel 1948 con la pubblicazione di A Mathematical Theory of Communication di Claude Shannon, che definisce l’informazione in termini quantitativi e introduce il concetto di bit, di entropia informativa e di feedback. L’obiettivo è garantire la trasmissione affidabile dei messaggi su canali imperfetti come telefono e radio.

Negli anni ’50 e ’60, la teoria diventa il fondamento dell’informatica e si intreccia con la cibernetica di Wiener e i modelli di von Neumann.

Negli anni ’70 e ’80, con la teoria dei codici e la trasmissione digitale, apre la strada a Internet.

Dagli anni ’90 in poi, il concetto di informazione si estende alla biologia (DNA come codice) e alle scienze cognitive.

Oggi è al centro della rivoluzione digitale, base dell’IA, crittografia, big data e reti globali.

Dal calcolo meccanico alla computazione intelligente

La scienza della computazione nasce tra ottocento e novecento con i lavori di matematici e logici come Boole, Hilbert, Turing e Church, che cercano di capire se il pensiero possa essere meccanizzato.

Con la Macchina di Turing (1936) si fonda la teoria del calcolo, base concettuale dell’informatica. Negli anni ’40 e ’50, con Von Neumann, la teoria diventa tecnologia: nascono i primi computer e i linguaggi di programmazione.

Negli anni ’60 e ’70 si precisa il significato di algoritmo, la complessità computazionale, i linguaggi formali e l’informatica si afferma come scienza autonoma.

Negli anni ’80 e ’90 si sviluppano reti, crittografia e Internet, mentre oggi si esplorano nuovi paradigmi come la computazione quantistica, i Big Data e l’IA.

L’evoluzione informatica verso i sistemi intelligenti

L’evoluzione informatica ha attraversato diverse ere fondamentali: dai primi computer meccanici e le enormi macchine a valvole degli anni ’40, si passò alla rivoluzione del transistor, che rese i computer più piccoli e affidabili. Con l’avvento del microprocessore negli anni ’70, nacque il personal computer, portando l’elaborazione nelle case e negli uffici.

Gli anni ’90 videro l’esplosione di Internet e del Web, che trasformarono il PC in uno strumento di comunicazione globale. Nel nuovo millennio, la mobilità degli smartphone e la potenza del cloud computing hanno reso la tecnologia ubiqua.

Oggi, siamo nell’era dei sistemi intelligenti, dove l’IA e l’Internet delle Cose stanno ridefinendo il rapporto tra uomo e macchina, spostando l’elaborazione dallo strumento fisico a una rete cognitiva e diffusa.

La matematica come linguaggio dell’intelligenza artificiale

Alla base dell’IA stanno le scienze matematiche, che ne costituiscono la struttura logica e il linguaggio: il calcolo differenziale permette l’apprendimento tramite la discesa del gradiente, l’algebra lineare descrive i dati come vettori e matrici, e la statistica fornisce gli strumenti per gestire incertezza e inferenza.

Matematica e computazione formano il cuore teorico della rivoluzione digitale e dell’evoluzione dell’IA contemporanea.

Neuroscienze e modelli del cervello artificiale

L’IA nasce anche come tentativo di modellare il funzionamento del cervello umano, ispirandosi alle neuroscienze.

Nel 1943 McCulloch e Pitts proposero il primo modello di neurone artificiale, seguito dal Perceptron di Rosenblatt.

Le neuroscienze hanno fornito all’IA concetti chiave come neuroni, sinapsi, plasticità e memoria, da cui derivano reti neurali, machine learning e deep learning. Col tempo, l’IA si è allontanata dai modelli biologici utilizzando modelli matematici più efficienti.

Il sogno enciclopedico e la conoscenza automatica

Il desiderio illuministico di immagazzinare tutto sapere umano su un qualche supporto è stato esplicitamente enunciato da Diderot, uno dei padri delle enciclopedie. Oggi, l’IA incarna una nuova versione di questo sogno: come le enciclopedie, organizza la conoscenza, ma lo fa in modo dinamico e autonomo. Mentre l’enciclopedia costruisce ordine razionale, l’IA apprende attraverso connessioni probabilistiche dai dati che inglobano le conoscenze in rete.

Entrambe nascono dal bisogno di catturare tutta la conoscenza degli uomini, ma a differenza delle enciclopedie, l’IA dispone di tecnologie molto più potenti che non solo sfruttano l’enorme conoscenza disponibile in rete ma forniscono anche un accesso interattivo al sapere, contribuendo a generare nuova conoscenza. In questo contesto, cresce l’esigenza di un nuovo umanesimo cognitivo, dove la tecnologia non sostituisca ma potenzi l’intelligenza umana.

Dalle radici si dipartono due tronchi che si sviluppano in tempi diversi.

I tronchi dell’intelligenza artificiale

Dalle molte radici dell’intelligenza artificiale si sviluppano due grandi tronchi: due approcci diversi al modo in cui una macchina può pensare, apprendere e rappresentare la conoscenza.

L’approccio top down: la logica dell’intelligenza artificiale classica

L’IA degli inizi è basata sulla logica formale. Cerca, cioè, di rappresentare la conoscenza con linguaggi come la logica proposizionale o quella del primo ordine, in cui il ragionamento consiste nell’applicare regole di deduzione per trarre conclusioni valide. In questo approccio c’è una netta separazione tra la base di conoscenza, che contiene fatti e regole, e il motore inferenziale, che le utilizza per fare deduzioni: ciò rende il sistema flessibile e trasparente, perché ogni conclusione è spiegabile.L’IA logica è alla base dei sistemi esperti, dei linguaggi come Prolog e delle ontologie del web semantico. Privilegia la correttezza e la completezza delle inferenze, offrendo modelli di intelligenza chiari e giustificabili. Tuttavia, non è in grado di trattare conoscenze incomplete, ambigue o troppo vaste.

Questo approccio presuppone che si riesca a catturare la complessità del pensiero umano tramite regole formali e meccanismi deduttivi che in qualche modo implichino comprensione, come nel caso della traduzione automatica, impraticabile con questo approccio.

I limiti di procedere in modo top down nella rappresentazione della conoscenza umana segnò un declino dell’IA, che ha ripreso vigore con l’adozione di approcci bottom up basati su reti neuronali che consentono alle macchine di apprendere da un enorme magazzino di dati e dal tracciamento dell’attività umana (machine learning e deep learning).

L’approccio bottom up: l’apprendimento dalle esperienze e dai dati

L’approccio bottom up delle reti neuronali si fonda sull’idea opposta rispetto all’IA logica: invece di partire da regole esplicite e principi generali per dedurre conclusioni, costruisce l’intelligenza a partire dai dati e dalla traccia di attività umane in rete, lasciando che il sistema apprenda autonomamente le regolarità presenti nell’esperienza. Le reti neuronali artificiali sono composte da nodi organizzati in strati, collegati da pesi che vengono modificati durante l’apprendimento.

Attraverso l’esposizione a grandi quantità di esempi, la rete riconosce schemi, correlazioni e strutture senza che un programmatore debba fornirle regole esplicite. È un processo di conoscenza induttivo e adattivo: il sistema generalizza dai dati e migliora con l’esperienza. Questo approccio ha reso possibili risultati straordinari nel riconoscimento di immagini, nella traduzione automatica, nella generazione del linguaggio e in molte altre applicazioni.

Tuttavia, il modello bottom up è opaco perché le reti neuronali su di esso basate non spiegano come arrivano a una decisione e possono riprodurre errori o bias presenti nei dati. Mentre l’IA logica rappresenta la razionalità esplicita e deduttiva, le reti neuronali imitano l’intelligenza intuitiva e percettiva, capace di cogliere sfumature e complessità del mondo reale ma senza trasparenza.

Verso un’IA neurosimbolica e un nuovo equilibrio cognitivo

Oggi si tende a integrare la logica con l’approccio statistico delle reti neurali, nella cosiddetta IA neurosimbolica, che mira a unire rigore e adattabilità. Sul piano filosofico, la logica formale incarna l’ideale razionalista dell’intelligenza come comprensione e spiegazione, offrendo un modello trasparente e controllabile, mentre i sistemi basati sulle reti neuronali sono potenti ma hanno il limite di essere opachi.

Concludo con un passaggio del libro The eye of the master di Matteo Pasquinelli, che condivido:

“L’IA è un progetto per catturare la conoscenza espressa da comportamenti individuali e collettivi e incapsularla in modelli algoritmici per automatizzare i più diversi compiti: dal riconoscimento delle immagini e manipolazione degli oggetti alla traduzione del linguaggio e alla presa di decisioni… la soluzione dell’enigma dell’IA è sotto i nostri occhi ma nessuno può o vuole vederla”.

Ringrazio per la collaborazione Deepseek, ChatGPT, Copilot e Gemini.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati