Nell’economia dell’intelligenza artificiale, definire l’AI significa capire un cambio di paradigma: sistemi che prevedono, ottimizzano e agiscono su dati, ridisegnando conoscenza, mercati e governance a una velocità superiore a quella di diritto, etica e politica.
Indice degli argomenti
Che cos’è l’intelligenza artificiale?
Tecnicamente, si intende per intelligenza artificiale l’insieme di teorie, tecniche e sistemi informatici finalizzati a eseguire, in modo autonomo o semiautonomo, compiti che richiederebbero, nell’essere umano, appunto intelligenza: riconoscimento linguistico e visivo, risoluzione di problemi, pianificazione, creatività, apprendimento, ragionamento.
Questi compiti si concretizzano in applicazioni tangibili: dall’analisi predittiva in medicina, dove l’AI diagnostica malattie con accuratezza sovrumana, alla guida autonoma, che promette di rivoluzionare la mobilità urbana, fino alla generazione multimediale e all’orchestrazione di compiti. Nel campo della creatività, modelli generativi trasformano descrizioni testuali in immagini fotorealistiche o video cinematografici, mentre in finanza algoritmi di machine learning gestiscono portafogli di investimento con una granularità inaccessibile agli analisti umani. L’AI non è più futuribile: è già pervasiva.
Ma questa definizione, pur rigorosa, è insufficiente. Perché presuppone, senza esplicitare, un concetto sfuggente: che cosa intendiamo, oggi, per intelligenza? L’intelligenza umana non è solo calcolo, ma giudizio. Non solo apprendimento, ma intenzionalità. Non solo previsione, ma comprensione. Come teorizzato da Howard Gardner, la mente umana non è monolitica ma multidimensionale: include competenze logico-matematiche, linguistiche, spaziali, ma anche emotive, sociali e creative. L’AI invece, per quanto avanzata, eccelle oggi principalmente in domini ristretti e quantificabili, come il calcolo e la classificazione, ma resta ancora lontana dal replicare la fluidità dell’intelligenza emotiva o la capacità di navigare contesti sociali complessi. Questa discrepanza non è solo tecnica, ma ontologica: l’AI computa, mentre l’essere umano comprende in modo contestuale e incarnato. Tuttavia, è in grado di svolgere – e in alcuni casi superare – performance cognitive in domini ristretti (per ora), con efficienze e velocità inaccessibili a qualunque mente biologica.
Economia dell’intelligenza artificiale e definizione operativa dell’AI
Un errore semantico sottile ma cruciale è chiamarla ancora “intelligenza artificiale”. L’attuale fase storica non riguarda più la simulazione dell’intelligenza in senso umano, ma l’instaurazione di una nuova logica operativa: l’intelligenza algoritmica. Questa non imita l’umano, ma lo riscrive. È un’intelligenza che non pensa, ma calcola; non interpreta, ma ottimizza; non racconta, ma prevede. In questa logica, l’AI non è tanto un’imitazione, quanto una transizione epistemologica: dal pensare al predire. È una trasformazione silenziosa, ma radicale.
Dal pensare al predire: correlazioni al posto delle cause
L’AI segna il passaggio dall’epoca delle cause all’epoca delle correlazioni. La conoscenza cessa di essere spiegazione e diventa anticipazione. In questo contesto, sapere non significa più “comprendere perché”, ma “prevedere che cosa”. È la vittoria della statistica sulla semantica, della funzione sull’intenzione. E con essa, la scienza stessa cambia forma: diventa operativa, adattiva, non più solo esplicativa.
Una lettura industriale degli LLM: la voce di Gregorio Piccoli
Gregorio Piccoli è laureato in Matematica presso l’Università di Padova. Nel 1984 è entrato nel settore dell’informatica; nel 1987 ha realizzato corsi computerizzati di tiro e topografia per la scuola di Artiglieria dell’Esercito e, lavorando con il gruppo di Folco Quilici, si è occupato di archiviazione di immagini. Alla fine degli anni ’80 ha fondato Codelab, società di cui ha sempre ricoperto il ruolo di Direttore Tecnico: in questa esperienza ha sviluppato Codepainter, che gli ha permesso di realizzare un prodotto gestionale di procedura contabile per le piccole e medie imprese (PMI) e poi una soluzione ERP per le complesse esigenze di gestione delle aziende di medie e grandi dimensioni. Nel 1999, Codelab è entrata nel gruppo Zucchetti e dal 2000 Piccoli ha la responsabilità delle tecnologie di sviluppo delle soluzioni della più grande software house italiana come CTO. Con Gregorio lavoriamo insieme nella stessa azienda ed è un onore e un piacere averlo anche su queste pagine.
“Scoperta, non invenzione”: la cronologia proposta sugli LLM
Gli LLM (Large Language Models) sono una scoperta, non un’invenzione. Se seguiamo la cronologia della realizzazione degli attuali LLM troviamo tre passaggi fondamentali: nel 2013 viene inventato l’algoritmo Word2Vec, che crea gli spazi concettuali e trasforma le analisi semantiche in operazioni geometriche; nel 2017 il paper “Attention is All You Need” porta all’architettura dei Transformers, che analizza il testo nella sua totalità e non parola per parola; e nel 2022 viene rivelato al mondo ChatGPT con capacità sorprendenti mai viste prima.
È stato superato il test di Turing. OpenAI stava sperimentando reti neurali sempre più grandi, addestrandole con tutti i testi che riusciva a recuperare. La rete con 70 miliardi di parametri ha rivelato delle “capacità emergenti”, appunto totalmente non attese, come la capacità di imparare dal contesto, di seguire le istruzioni e di spiegare passo-passo il ragionamento seguito per rispondere. Settanta miliardi di parametri sono davvero molti: tanto per dare una unità di misura, l’intera Wikipedia in inglese è circa cinque miliardi di parole. Possiamo immaginare che, vista la capacità stimata dei neuroni di una rete, un sistema con 70B la memorizzi interamente e inizi a generalizzare solo con volumi più grandi di dati.
Così ci troviamo di fronte a una tecnologia trasformativa, cioè capace di cambiare per sempre la società che la adotta, ed è frutto di una scoperta, non di una serie di scelte deliberate che possiamo catalogare come invenzione. Le tecnologie trasformative hanno un impatto enorme: ricordiamo l’agricoltura e la scrittura nell’antichità, l’elettricità e Internet in tempi moderni. L’agricoltura ha portato alla nascita delle città: prima l’uomo era o raccoglitore o pastore nomade. La scrittura ha portato alle leggi e al diritto. Gli effetti dell’elettricità e di Internet sono vissuti da ognuno di noi ogni giorno, basta pensare a come si sia completamente fermata la Spagna per il recente blackout.
Nella storia degli ultimi mille anni abbiamo un esempio di una scoperta che ha avuto effetti trasformativi sulla società: la scoperta dell’America. Cristoforo Colombo è morto convinto di essere arrivato in India. Per anni gli esploratori andavano più a Ovest, capivano che l’isola dove erano arrivati non era ancora l’India e provavano più avanti. In questo molti tecnologi di oggi ci avvisano che “sì, il prodotto non è così super come sembrava, ma la prossima versione sarà incredibile, addirittura superumana”! Poi c’è stata la corsa all’oro, il guadagno immediato. Non è mancata la bolla speculativa con la Compagnia dei Mari del Sud.
Ma guardiamo gli effetti trasformativi: come sarebbe la cucina del Sud d’Italia senza il pomodoro? E i tedeschi e gli irlandesi senza le patate? E i veneti senza la polenta? Che cosa mangiavamo prima? I frutti di una tecnologia trasformativa sono molto difficili da cogliere mentre la rivoluzione è in atto, soprattutto se poi questa nasce da una scoperta più che da una invenzione. Anche l’intelligenza artificiale ha questa potenzialità: ora vediamo l’immediatezza, stiamo ancora cercando di capire se siamo arrivati in India o se siamo in un nuovo territorio. Poi pian piano scopriremo molti frutti, così come per anni abbiamo guardato le piante che arrivavano dal nuovo mondo reputandole molto belle da vedere e non avevamo capito che valeva la pena assaggiarle.
Dal dibattito filosofico ai limiti: intenzionalità, corpo e contesto
L’effetto di questa transizione è la nascita di un’“epoca previsionale”, in cui il futuro non si progetta, si computa. John Searle, in Minds, Brains, and Programs (1980), ha smontato l’equivalenza tra simulazione e comprensione con l’esperimento della Stanza Cinese: un operatore che manipola simboli secondo regole non comprende il significato intrinseco, così come un’AI non possiede intenzionalità. Daniel Dennett, in From Bacteria to Bach and Back (2017), ribatte che l’intelligenza emerge da processi fisici, aprendo implicitamente alla possibilità di una coscienza artificiale. Tuttavia, come sostiene Hubert Dreyfus in What Computers Still Can’t Do (1992), l’AI manca dell’essere-nel-mondo heideggeriano: la capacità di agire in situazioni ambigue, guidata da un corpo e da un’esperienza sensoriale.
De-antropomorfizzare l’intelligenza: minimal cognition e post-antropocentrismo
Ma è necessario compiere un ulteriore passo: de-antropomorfizzare la nozione stessa di intelligenza. Se nel pensiero classico l’intelligenza era prerogativa dell’uomo razionale – da Aristotele a Cartesio – l’AI obbliga a un ripensamento in chiave ecologica e funzionale. Può un sistema essere “intelligente” se ottimizza una funzione obiettivo senza coscienza? È questa la proposta del filone della minimal cognition, che suggerisce di considerare l’intelligenza come proprietà emergente di qualunque sistema capace di adattamento finalizzato, anche in assenza di autocoscienza. Da questo punto di vista, l’AI non è meno intelligente perché non è umana: è diversamente intelligente.
In questa visione post-antropocentrica, l’intelligenza non è solo uno specchio dell’uomo, ma un ventaglio di strategie per agire nel mondo. Questa divergenza spiega perché, nonostante i progressi, un’AI non può (a oggi, con l’attuale stato tecnico, quindi senza ancora un corpo sintetico, robotico e/o biologico) replicare la saggezza pratica (phronesis) aristotelica.
Il limite dell’AI disincarnata e la soglia della simulazione
In questo senso, quindi, l’AI soffre ancora della sua natura disincarnata. Non ha corpo, e quindi non ha pathos. La sua cognizione è priva di esperienza tattile, gustativa, termica, emotiva. È una cognizione senza mondo. Questo limite non è tecnico ma fenomenologico. Senza embodiment, l’AI rimane esterna al vissuto. Non può soffrire, non può desiderare, non può morire. E, per questo, non può ancora comprendere.
Il tentativo di creare robot coscienti (es., i progetti Sophia di Hanson Robotics o i sistemi emotivi di Affectiva) non ha al momento superato la soglia della simulazione. Siamo davanti a entità senza ek-sistenza. L’intelligenza, dunque, si relativizza: diventa funzione del contesto e dell’obiettivo. Questo spiega perché il concetto stesso di AI si sia trasformato, decennio dopo decennio, da miraggio filosofico a realtà ingegneristica.
Origini e svolte storiche: dal laboratorio ai mercati
La sua origine ufficiale risale al 1956, al workshop di Dartmouth, dove fu l’ormai noto John McCarthy a coniare il termine “Artificial Intelligence”, definendolo come “la scienza e l’ingegneria di creare macchine intelligenti”. Ma le sue radici affondano più indietro: nel sogno computazionale di Alan Turing, che nel 1950 propose il celebre “Imitation Game”, oggi noto come test di Turing, per valutare l’intelligenza di una macchina in base alla sua capacità di ingannare un interlocutore umano. Ma probabilmente potremo far risalire il concetto a prima ancora, nel XIX secolo, quando Ada Lovelace intuì che i numeri potevano rappresentare anche suoni, immagini, concetti: un’idea che anticipa la polisemanticità del dato nell’AI moderna.
Il grande cambio di passo avvenne proprio con l’ingresso di quello che potremmo definire il paradigma connectionista: le reti neurali artificiali, ispirate vagamente alla struttura del cervello umano, permisero una nuova forma di apprendimento statistico. Ma fu solo con la convergenza di tre fattori – l’esplosione dei dati, la potenza di calcolo e le innovazioni algoritmiche – che l’AI moderna decollò. Il deep learning, con l’uso massivo di reti neurali profonde, divenne il cuore pulsante dell’AI contemporanea. L’esplosione dei dati, alimentata dalla digitalizzazione di ogni aspetto della vita umana, ha fornito il carburante essenziale per l’addestramento dei modelli di machine learning.
I tre pilastri dell’economia dell’intelligenza artificiale: dati, algoritmi, calcolo
Questa interdipendenza tra AI e dati ha dato vita a una nuova economia dei dati, dove la raccolta, la curation e la monetizzazione delle informazioni sono diventate leve strategiche per le imprese e i governi. Oggi l’economia dell’AI si articola infatti in tre pilastri: dati, algoritmi e infrastruttura. NVIDIA, con le sue GPU, domina il mercato dell’hardware per il training di modelli, e già nel 2023 aveva raggiunto una capitalizzazione di oltre 1 trilione di dollari. Parallelamente, il MLaaS (Machine Learning as a Service) offre a imprese come Siemens o Pfizer l’accesso a strumenti di AI senza investimenti in competenze interne.
Secondo McKinsey (2023), l’AI genererà tra 13 e 15 trilioni di dollari di valore globale entro il 2030, con settori come la logistica (+35% di efficienza) e la medicina personalizzata (riduzione del 20% dei costi diagnostici) in prima linea. Tuttavia, come sottolineato indirettamente anche da Mariana Mazzucato in Mission Economy (2021), questa crescita richiede politiche pubbliche che evitino monopoli tecnologici e garantiscano una distribuzione equa del valore generato.
L’AI come infrastruttura politica e geoeconomica
L’AI non è solo un fatto tecnologico: è una infrastruttura politica. Ogni algoritmo è una decisione incorporata, ogni dataset una storia di potere. Il modo in cui progettiamo, addestriamo e distribuiamo l’intelligenza computazionale definisce le geometrie future della ricchezza e della sovranità. L’economia dell’AI è anche una geoeconomia, dove chi controlla l’intelligenza controlla la scala della realtà.
Meta-modelli e sovranità digitale nell’economia dell’intelligenza artificiale
Ma la vera concentrazione di potere non è solo nell’hardware, bensì nei meta-algoritmi: architetture perlopiù proprietarie (come GPT, PaLM o Gemini) che agiscono da “meta-macchine” capaci di apprendere, generalizzare e orchestrare. In questo scenario, chi controlla il meta-modello controlla il linguaggio, l’informazione e la previsione. È l’avvento di una meta-economia computazionale dove i modelli sono più importanti dei prodotti, e le API sostituiscono le filiere. Quindi il monopolio non è più solo sull’output, ma anche sull’intelligenza di secondo ordine, ed è forse qui che si gioca la nuova sovranità digitale.
A partire dal 2012, con il successo del modello AlexNet nell’ambito del riconoscimento visivo, e poi con il dominio di AlphaGo nel gioco del Go (2016), la narrativa si spostò da una promessa inverosimile a una realtà industriale. L’AI non era più confinata ai laboratori e alle sperimentazioni: era entrata nei mercati, nei prodotti, nelle decisioni.
Predizione performativa, bias e diritto: quando l’AI orienta il reale
C’è però da dire che questa democratizzazione dell’AI porta con sé anche dei dilemmi etici ineludibili. Per esempio, l’automazione decisionale, pur efficiente, può perpetuare o amplificare bias cognitivi e sociali, come dimostrato dai casi di discriminazione algoritmica, avvenuti in settori come la giustizia penale e il recruiting. L’AI cambia la percezione stessa del tempo. Se la storia era lineare e la previsione un’ipotesi, oggi la predizione è automatizzata. L’algoritmo diventa un possibile oracolo statistico: anticipa consumi, crisi, diagnosi.
In un mondo governato da modelli predittivi, prevedere non significa più solo anticipare l’ignoto: significa plasmarlo. La capacità di generare previsioni su comportamenti, eventi, preferenze o rischi non è neutra: produce effetti sul reale, lo orienta, lo condiziona. L’intelligenza artificiale non si limita a “leggere” i dati del passato per proiettare scenari futuri. In molti ambiti – dalla finanza ai consumi, dalla sicurezza alla politica – la predizione agisce come una profezia autoavverante, in grado di modificare i comportamenti degli individui e delle istituzioni in funzione delle sue stesse proiezioni.
Monopolio dell’anticipazione e “pre-architettura” delle alternative
Si apre qui un nuovo paradigma del potere algoritmico: chi possiede la capacità di predire con precisione non solo anticipa, ma decide a monte, imponendo vincoli e cornici operative entro cui gli altri saranno costretti a muoversi. La previsione diventa così un atto performativo, un gesto che produce effetti sulla realtà sociale ancor prima che questa si manifesti. In questo contesto, l’informazione cessa di essere una risorsa passiva: diventa una leva strategica di conformazione del reale. I sistemi di AI, addestrati su grandi quantità di dati comportamentali, generano modelli che non solo rispecchiano ciò che è stato, ma che orientano ciò che sarà, riducendo l’indeterminazione e, di fatto, limitando la possibilità dell’imprevisto.
La posta in gioco non è più semplicemente il controllo dell’informazione, ma il monopolio dell’anticipazione. Il potere algoritmico non si esercita attraverso la sorveglianza continua, ma attraverso l’invisibile pre-architettura delle alternative disponibili. È il modello predittivo, e non più la legge, a delimitare che cos’è pensabile, auspicabile, ottimale. In una società sempre più orientata dall’intelligenza artificiale, la libertà non si gioca più soltanto nel diritto di scegliere, ma nella possibilità di sfuggire alla predizione, cioè di resistere a una realtà già scritta dal modello.
Il tempo dell’AI e il disallineamento con etica, diritto e politica
Una nuova critica del potere richiede pertanto di interrogarsi non solo su chi prende decisioni, ma su chi definisce ciò che sarà considerato “plausibile”. In questo scenario, prevedere modifica il futuro che si tenta di anticipare. Si crea così un futuro algoritmico: non più atteso, ma gestito in tempo reale. È il passaggio dalla storia alla simulazione, dove la probabilità sostituisce la narrazione. Le economie si spostano dal passato (storia) e dal presente (produzione) verso il dominio del futuro predetto.
Questo tempo algoritmico è asincrono rispetto all’esperienza umana. L’AI opera in millisecondi, mentre il diritto, l’etica e la politica ragionano in anni. Ne deriva un disallineamento sistemico tra potere tecnologico e capacità regolativa. Il rischio non è solo quello di un’accelerazione incontrollata, ma di una deriva temporale della responsabilità: quando l’azione precede la deliberazione, e la decisione è già stata presa da una macchina prima che il cittadino possa esprimere il proprio giudizio.
Governance dell’economia dell’intelligenza artificiale: COMPAS e AI Act
Il caso del sistema COMPAS, utilizzato nei tribunali statunitensi per valutare la recidività (e che comunque ritroveremo anche più avanti), ha dimostrato come algoritmi addestrati su dati storici possano perpetuare discriminazioni razziali (ProPublica, 2016). Per mitigare questi rischi, l’Unione Europea ha introdotto l’AI Act, il primo quadro normativo al mondo che classifica le applicazioni di AI in base al rischio (es., vietando il riconoscimento facciale in spazi pubblici). L’AI non è solo un acceleratore economico, ma un vettore di trasformazione sociale che richiede governance attenta e responsabile.
Trasparenza e explainable AI: oltre la scatola nera
Nonostante i successi, il deep learning presenta poi una criticità fondamentale: l’opacità dei suoi processi decisionali. I modelli neurali profondi operano come “scatole nere”, rendendo arduo, se non impossibile, comprendere le logiche sottostanti alle loro predizioni. Questo deficit di trasparenza limita l’adozione dell’AI in settori ad alto rischio, dove la spiegabilità è imprescindibile. Di qui l’emergere dell’Explainable AI (XAI), un campo dedicato a rendere i modelli intelligibili, senza sacrificarne le performance.
Ma c’è una soglia che il deep learning non riesce a superare: la significazione. Un modello può riconoscere migliaia di volti, ma non sa che cosa significhi riconoscere un amico. Può generare poesie, ma non distinguere tra una metafora e un fraintendimento. L’AI, per ora, simula il linguaggio, ma non il mondo a cui il linguaggio rinvia. Questa dissociazione tra sintassi e semantica è ancora il vero limite delle reti profonde. La sfida è quindi duplice: bilanciare potenza computazionale e accountability.
Generativa e agentica: l’AI come attore economico
Ma è nell’ultima frontiera, quella dell’AI generativa e dell’AI agentica, che si assiste a un ulteriore salto evolutivo. I modelli linguistici di grandi dimensioni (LLM), come GPT, non si limitano a riconoscere: producono. Non si limitano a classificare: interpretano, riformulano, interagiscono. Non sono intelligenti nel senso umano, ma introducono una nuova forma di “intelligenza sintetica funzionale”: capace di elaborare contenuti, dialogare, simulare creatività e partecipare attivamente a processi complessi, dalla scrittura alla progettazione molecolare.
Nell’AI agentica, lo schema in un certo senso si inverte: l’algoritmo non aspetta input, ma prende iniziativa. Gli agenti intelligenti non reagiscono, ma agiscono. Si muovono in ambienti complessi, imparano, formulano piani, negoziano obiettivi. Questo li rende non solo strumenti, ma attori economici. In scenari industriali avanzati, un agente può ridefinire in autonomia la logistica di un intero stabilimento, o gestire portafogli dinamici in finanza. Non è più solo una tecnologia: è una forma embrionale di soggettività operativa.
Sintesi: che cos’è l’AI e come si integra con l’umano
Dunque, in sintesi, che cos’è davvero questa intelligenza artificiale? È l’insieme dei tentativi storici, scientifici e tecnologici di creare sistemi computazionali capaci di agire in ambienti complessi in modo adattivo, approssimando – o superando – le capacità cognitive umane in domini specifici o generali. È, al tempo stesso, un campo disciplinare, un insieme di tecnologie, una corrente culturale e una forza economica trasversale.
In questo contesto, l’AI non è pertanto destinata a sostituire l’umano, ma a tutti gli effetti integrarsi con esso, non in modo parassitario ma simbiotico. Il modello emergente è dunque quello della collaborazione uomo-macchina, dove l’AI amplifica le capacità cognitive e creative umane, piuttosto che limitarsi a soppiantarle. Dagli assistenti virtuali che ottimizzano la produttività ai sistemi di progettazione assistita che accelerano l’innovazione, l’AI sta ridefinendo i confini del lavoro e della creatività.
Nel settore artistico, strumenti come Stable Diffusion collaborano con creativi umani per esplorare nuove estetiche, come dimostrato dal progetto The Next Rembrandt (2016), dove l’AI ha analizzato 346 dipinti per generare un’opera inedita nello stile del maestro olandese. Pertanto la vera rivoluzione non è più nella mera automazione, ma in una nuova augmentazione. L’AI non sostituisce l’umano: lo costringe a ripensarsi. È il primo specchio a cui ci troviamo davanti nella storia dell’umanità che non si limita a riflettere il nostro volto, ma anche il nostro intelletto. E ci interroga non su ciò che possiamo fare con lei, ma su ciò che vogliamo essere insieme a lei.














