AMI Labs, la startup fondata da Yann LeCun a Parigi, con un round di finanziamento da oltre un miliardo di dollari, non è solo un’altra impresa tech: è la risposta concreta di uno dei padri del deep learning a un settore che, a suo giudizio, sta correndo veloce nella direzione sbagliata.
Indice degli argomenti
Yann LeCun e la sua battaglia contro i Large Language Models
C’è un modo particolare in cui Yann LeCun pronuncia la parola “sciocchezze” quando parla dei Large Language Models e del loro presunto percorso verso la superintelligenza. Non è propriamente un’imprecazione. È qualcosa di più preciso: è la stanchezza di un uomo che ha ragione da decenni e allo stesso tempo fatica a farsene una ragione. «Il percorso verso la superintelligenza basandosi soltanto sull’addestramento di LLM è, a mio avviso, una sciocchezza totale», ha detto in un podcast nel dicembre 2025, poche settimane prima di lasciare Meta dopo dodici anni. «Non potrà mai funzionare.»
In un settore dove tutti sembrano competere per chi riesce a essere più entusiasta, dove i comunicati stampa parlano di “rivoluzione” e le valutazioni startup sfidano qualunque logica, questa voce dissenziente suona come uno stridore di freni. LeCun (Turing Award nel 2018, “Padrino del Deep Learning”, co-fondatore della ricerca moderna sull’intelligenza artificiale) non crede che i modelli linguistici, per quanto grandi e raffinati, ci porteranno mai a una macchina davvero intelligente. E non si limita a dirlo nei corridoi delle conferenze o nelle note a piè di pagina delle pubblicazioni accademiche. Lo dice a gran voce, nei podcast, nei dibattiti pubblici, nei thread di LinkedIn. E adesso lo dimostra con i fatti: ha da poco lanciato AMI Labs (Advanced Machine Intelligence) con un round di finanziamento iniziale da 1,03 miliardi di dollari: uno dei più grandi seed round della storia, probabilmente il più grande mai ottenuto da un’azienda europea.
AMI: un nome, un programma, una dichiarazione di intenti
Il nome non è casuale. “AMI” si pronuncia come la parola francese per “amico”. È un gioco di parole, certo, ma anche una dichiarazione programmatica: questo sistema di intelligenza artificiale non deve essere uno strumento per rimpiazzare l’essere umano, né una macchina potenzialmente ostile che qualcuno deve temere. Deve essere, appunto, un amico. Un sistema che capisce davvero il mondo, che ha memoria, che sa pianificare, che è controllabile. Un’intelligenza, cioè, che sia radicalmente diversa da tutto quello che si è costruito finora.
Il profilo di un dissidente metodico
Per capire AMI Labs bisogna prima capire LeCun, e per capire LeCun bisogna fare qualcosa di raro nel mondo dell’AI contemporanea: guardare indietro. Non di qualche anno. Di decenni.
Dalle origini bretoni alla rivoluzione del deep learning
Yann André Le Cun (il cognome si scrisse unito per convenzione americana, pronunciato “Leh-KUN”) è nato l’8 luglio 1960 a Soisy-sous-Montmorency, nella periferia nord di Parigi. Il nome Yann è la forma bretone di Giovanni; il cognome è bretone antico, derivato da Le Cunff, originario della regione di Guingamp nel nord della Bretagna. Questa doppia identità (francese e parigino per nascita, bretone per radici, americano per adozione professionale) tornerà quando si parlerà della scelta di Parigi come sede di AMI Labs.
Nel 1983 ottiene il Diplôme d’Ingénieur all’ESIEE Paris, e nel 1987 il dottorato all’Università Pierre e Marie Curie (oggi Sorbona), dove presenta una delle prime formulazioni dell’algoritmo di backpropagation per le reti neurali. Quello stesso anno compie un viaggio che cambierà tutto: diventa ricercatore post-dottorale a Toronto, sotto la supervisione di Geoffrey Hinton. È un momento fondativo. Due ricercatori convinti che le reti neurali siano la chiave dell’intelligenza artificiale, in un periodo in cui l’establishment del settore li considera, nella migliore delle ipotesi, eccentrici. Hinton e LeCun, insieme a Yoshua Bengio, stanno costruendo in solitudine i fondamenti teorici di quella che tre decenni dopo sarà chiamata “la rivoluzione del deep learning”.
Da Bell Labs alla NYU: l’architettura che lesse milioni di assegni
Nel 1988, LeCun entra nei Bell Labs di AT&T a Holmdel, nel New Jersey. È lì che sviluppa LeNet, una rete neurale convoluzionale ispirata al funzionamento biologico della visione che diventa il prototipo di tutti i moderni sistemi di riconoscimento delle immagini. Alla fine degli anni Novanta e nei primi anni Duemila, il sistema di riconoscimento dei codici bancari basato su LeNet veniva utilizzato per leggere circa il 10% di tutti gli assegni circolanti negli Stati Uniti. Era AI applicata nel mondo reale, decenni prima che il termine diventasse di moda.
Dal 1996 al 2002 lavora ancora per AT&T Labs, dove contribuisce allo sviluppo di DjVu, una tecnologia di compressione delle immagini tuttora in uso. Nel 2003 approda alla New York University, dove diventa Jacob T. Schwartz Chaired Professor of Computer Science presso il Courant Institute of Mathematical Sciences: un titolo che conserva ancora oggi, segno dell’importanza della sua dimensione accademica, che non ha mai abbandonato.
Da FAIR al Turing Award: dodici anni che hanno cambiato l’AI
Nel 2012 fonda il NYU Center for Data Science. Nel dicembre 2013, Mark Zuckerberg lo chiama per un incarico che non si rifiuta: diventare il primo direttore del laboratorio di ricerca sull’AI di Facebook, quello che oggi si chiama FAIR (Fundamental AI Research). Per dodici anni, LeCun costruisce quello che diventerà uno dei laboratori di ricerca sull’intelligenza artificiale più influenti al mondo, capace di attirare talenti da ogni continente e di produrre ricerche fondazionali come Llama, PyTorch (co-sviluppato con accademia e industria), e le prime versioni di JEPA.
Nel 2018 arriva il Turing Award, il riconoscimento più alto dell’informatica, condiviso con Hinton e Bengio. La stampa li chiama i “Padrini del Deep Learning”. Nel 2022 riceve il Princess of Asturias Award nella categoria “Ricerca Scientifica”, nel 2023 la Legion d’Onore dal presidente francese, nel 2025 il Queen Elizabeth Prize for Engineering.
E poi, il 19 novembre 2025, annuncia su LinkedIn la sua partenza da Meta.
L’addio a Zuckerberg: tra gratitudine e dissenso
Le partenze dei grandi dall’industria tecnologica tendono a essere raccontate in due modi: come tradimenti amari o come separazioni consensuali e amicali. LeCun, con la sua consueta tendenza a complicare le narrazioni troppo semplici, riesce a stare nel mezzo.
Nei mesi che hanno preceduto l’annuncio, le sue dichiarazioni pubbliche erano diventate sempre più esplicite nel distanziarsi dalla direzione strategica di Meta. A ottobre 2025, l’azienda aveva licenziato 600 dipendenti dai suoi Superintelligence Labs, tra cui ricercatori del FAIR che lui stesso aveva fondato. In un’intervista al Financial Times, LeCun aveva detto qualcosa di memorabile: «Non si dice a un ricercatore cosa fare. E certamente non lo si dice a un ricercatore come me».
Nel post con cui annunciava la partenza, aveva però ringraziato Zuckerberg e il management di Meta per “il loro sostegno a FAIR” e aveva suggerito che l’azienda potrebbe diventare un partner del suo nuovo progetto. Forse perfino il primo cliente. Il tono era costruttivo. Ma la sostanza era chiara: il FAIR che aveva immaginato lui (un laboratorio di ricerca accademica nel cuore di una grande azienda tecnologica, libero di inseguire orizzonti a lungo termine) non esisteva più. Meta si era spostata verso un modello più chiuso, più orientato al prodotto, più ossessionato dai benchmark.
«Quando la tua curiosità si scontra con i risultati trimestrali», aveva detto in una conferenza nel 2024, «raramente vince la curiosità.»
C’era anche un disaccordo tecnico profondo. LeCun aveva sostenuto con forza la necessità di mantenere e sviluppare la divisione robotica di FAIR. Zuckerberg la fece chiudere. Una mossa che, agli occhi di LeCun, era non solo un errore tecnico, ma il sintomo di una visione miope: ci si concentrava su ciò che era immediatamente monetizzabile, sacrificando la ricerca che avrebbe potuto cambiare il futuro dell’AI. Un futuro, nella sua visione, che passa per i robot e la comprensione del mondo fisico — non per chatbot sempre più fluenti.
Perché i Large Language Models non bastano: il manifesto intellettuale di LeCun
Per cogliere appieno il significato di AMI Labs, è necessario comprendere la posizione tecnica e filosofica di LeCun. Non è una critica superficiale. È un argomento costruito nel corso di anni di riflessione e di ricerca, codificato nel 2022 in un lungo paper (“A Path Towards Autonomous Machine Intelligence”) che è diventato il documento fondativo della sua agenda intellettuale.
Il punto di partenza è il Paradosso di Moravec, enunciato dall’informatico Hans Moravec nel 1988: ciò che è facile per gli esseri umani è difficile per i computer, e viceversa. Giocare a scacchi, comporre testi, calcolare traiettorie balistiche: tutto questo è relativamente semplice per le macchine. Camminare in un ambiente sconosciuto, riconoscere un oggetto mai visto prima, capire intuitivamente che un bicchiere pieno cadrà se spinto oltre il bordo di un tavolo: tutto questo rimane enormemente difficile.
I Large Language Models, argomenta LeCun, eccellono nel dominio in cui le macchine sono sempre state forti: la manipolazione simbolica del linguaggio. Sono straordinariamente utili per chi scrive testi, fa ricerca, scrive codice. Ma hanno un limite strutturale che non può essere risolto semplicemente aggiungendo più dati o più potenza di calcolo.
«Gli LLM sono confinati al mondo discreto del testo», spiega nell’intervista alla MIT Technology Review. «Non sanno davvero ragionare né pianificare, perché mancano di un modello del mondo. Non sono in grado di prevedere le conseguenze delle proprie azioni.»
L’argomento è più tecnico di quanto sembri. I modelli linguistici vengono addestrati attraverso l’apprendimento autoregressivo: dato un contesto, prevedono il token successivo. Questo funziona bene per il linguaggio perché i testi sono sequenze discrete e finite. Ma il mondo reale è continuo, ad alta dimensionalità e caotico. «Non si può davvero rappresentare una distribuzione su tutte le cose che potrebbero accadere in futuro», ha detto in un podcast, «perché è sostanzialmente una lista infinita di possibilità.» Applicare la logica del “prossimo token” a dati video o sensoriali non funziona: lo ha dimostrato empiricamente vent’anni di tentativi falliti.
Esiste poi il problema informativo che LeCun ama illustrare con un confronto volutamente provocatorio: un bambino di quattro anni ha ricevuto, attraverso la percezione visiva, una quantità di informazioni paragonabile all’intero testo su cui vengono addestrati i più grandi LLM. «Questo ci dice molte cose», dice. «Non raggiungeremo mai l’intelligenza a livello umano addestrando sistemi solo su testo.» Il testo è un canale straordinariamente povero rispetto all’esperienza sensoriale del mondo.
Il risultato pratico: gli LLM allucinano, mancano di buon senso, non sanno pianificare, non possono generalizzare al di là dei pattern linguistici che hanno incontrato nel training. Sono, nella sua metafora forse più efficace, come qualcuno a cui si insegna a guidare spiegandoglielo a parole. La comprensione del mondo fisico non si trasmette attraverso il linguaggio. Si costruisce attraverso l’esperienza diretta.
JEPA: l’architettura alternativa ai transformer
Alla critica LeCun affianca una proposta. L’architettura JEPA (Joint Embedding Predictive Architecture) è la sua risposta tecnica alla domanda: se non i transformer e i modelli linguistici, allora cosa?
Il principio fondamentale di JEPA è elegante nella sua semplicità concettuale, anche se la sua implementazione è tutt’altro che banale. Invece di cercare di prevedere ogni dettaglio del futuro (come farebbe un modello generativo che tenta di ricostruire ogni pixel di un video), JEPA impara a rappresentare il mondo in modo astratto e fa previsioni in quello spazio di rappresentazione, ignorando i dettagli non prevedibili.
L’idea richiama qualcosa di profondamente connesso a come ragionano gli esseri umani. Quando camminiamo verso una porta chiusa, non “prevediamo” la posizione esatta di ogni molecola d’aria che incontreremo. Costruiamo una rappresentazione astratta della situazione (c’è una porta, è chiusa, bisogna aprirla) e pianifichiamo di conseguenza. JEPA cerca di codificare questo principio in un’architettura computazionale.
È un modello non generativo. In un momento storico in cui “AI generativa” è diventata quasi sinonimo di “AI tout court”, questa è già di per sé una posizione controcorrente. «La mia intuizione è che i sistemi AI di prossima generazione saranno fondamentalmente basati su modelli non generativi», ha detto LeCun in una conferenza. Per lui, la generatività è una caratteristica accidentale del momento attuale, non una proprietà necessaria dell’intelligenza.
Sotto la sua guida, Meta AI ha già sviluppato diverse versioni di JEPA: I-JEPA (per immagini, 2023), V-JEPA (per video, 2024) e V-JEPA 2 (giugno 2025), quest’ultimo addestrato sull’equivalente di un secolo di dati video. I risultati iniziali, soprattutto nell’applicazione alla pianificazione per la robotica, sono considerati promettenti dalla comunità di ricerca.
AMI Labs continuerà su questo percorso, con un focus specifico su applicazioni industriali dove i dati arrivano in forme continue, ad alta dimensione e rumorose: sensori di processi industriali, lidar per la robotica, dati medici, flussi video per sistemi autonomi. Sono tutti domini in cui i LLM hanno sostanzialmente fallito, e in cui un modello del mondo che “capisca” la fisica della situazione potrebbe fare una differenza enorme.
AMI Labs: la startup che vale già tre miliardi e mezzo
Nel dicembre 2025, LeCun annuncia ufficialmente su LinkedIn l’esistenza di Advanced Machine Intelligence Labs. Il nome AMI, con il suo doppio significato (acronimo tecnico e parola francese appunto per “amico”) è già una dichiarazione di intenti. L’azienda viene fondata a Parigi, con uffici a New York, Montreal e Singapore.
La scelta della governance è rivelante quanto quella della sede. LeCun sarà Executive Chairman, non CEO. Il ruolo operativo viene affidato ad Alex LeBrun, un suo ex collaboratore: ingegnere e imprenditore seriale francese, LeBrun aveva venduto Wit.ai a Facebook nel 2015 (dove aveva poi lavorato sotto la direzione di LeCun al FAIR), per poi fondare Nabla, una startup di AI per la sanità con uffici a Parigi e New York. È Nabla, significativamente, il primo partner dichiarato di AMI Labs: l’azienda avrà accesso privilegiato ai modelli in sviluppo, nella prospettiva di costruire sistemi di AI per l’assistenza clinica che siano certificabili dalla FDA; un obiettivo che richiede l’affidabilità che i LLM, con le loro allucinazioni, non possono garantire.
La scelta di LeBrun da parte di LeCun rivela molto del suo modo di pensare. Non cercava un’altra figura accademica di alto profilo. Cercava qualcuno che sapesse costruire e scalare aziende tecnologiche, qualcuno con «l’esperienza per costruire l’azienda, lasciandomi libero di concentrarmi sulla scienza e sulla tecnologia», come ha spiegato alla MIT Technology Review. La divisione dei ruoli è intenzionale e riflette la sua autoconsapevolezza: «So fare management, ma non mi piace farlo. Non è questa la mia missione nella vita».
Il team fondante è straordinariamente denso di talento. Laurent Solly, già vicepresidente di Meta per l’Europa (dove aveva guidato la crescita del business pubblicitario europeo), si unisce come Chief Operating Officer. Saining Xie, un ricercatore di primo piano che LeCun descrive come “brillante” e che ha reclutato sia al FAIR sia alla NYU, diventa Chief Science Officer. Pascale Fung, esperta di AI multimodale e lingua naturale, è Chief Research & Innovation Officer. Mike Rabbat, capo della ricerca AI di Meta Canada, diventa VP of World Models. Si aggiungono Min Lin, ricercatore singaporiano di fama internazionale, e altri ancora.
Il sito di AMI Labs, lanciato nel gennaio 2026, è di una semplicità quasi provocatoria: niente prodotti, niente dimostrazioni, niente roadmap. Solo una dichiarazione di missione: “Real World. Real Intelligence.” E la lista degli obiettivi: sistemi che capiscono il mondo reale, con memoria persistente, capaci di ragionare e pianificare, controllabili e sicuri.
A marzo 2026, il round di finanziamento seed viene annunciato: 1,03 miliardi di dollari (circa 890 milioni di euro) a una valutazione pre-money di 3,5 miliardi. Tra i co-lead investor: Cathay Innovation, Greycroft, Hiro Capital (dove LeCun è advisor), HV Capital e Bezos Expeditions. Tra gli investitori individuali: Tim Berners-Lee, Jim Breyer, Mark Cuban, Xavier Niel, Eric Schmidt. Tra gli investitori strategici e industriali: NVIDIA, Samsung, Temasek, Toyota Ventures, il Groupe Industriel Marcel Dassault, Publicis Groupe e altri player francesi e asiatici.
Il CEO Alexandre LeBrun, parlando a TechCrunch, ha ammesso con disarmante franchezza: «I “world model” saranno il prossimo buzzword. Tra sei mesi, ogni azienda si definirà una world model company per raccogliere fondi.» Lo ha detto con un sorriso, perché lui crede che AMI Labs sia fondamentalmente diversa dalla prossima ondata di imitatori. Ma è anche una confessione implicita: stiamo assistendo all’alba di un nuovo ciclo di hype.
La terza via europea: tra geopolitica dell’AI e pragmatismo dei talenti
Uno degli aspetti più interessanti di AMI Labs è la sua geografia intellettuale e politica. LeCun ha scelto Parigi come sede principale deliberatamente, non per nostalgia. C’è una tesi geopolitica esplicita nel suo progetto.
«C’è certamente una grande domanda, da parte dell’industria e dei governi, di un’azienda AI di frontiera credibile che non sia né cinese né americana», ha detto alla MIT Technology Review. L’idea è quella di una “terza via”: né i modelli proprietari e chiusi delle big tech americane (OpenAI ChatGPT, Anthropic Claude, Google Gemini e DeepMind), né i modelli cinesi open source (DeepSeek e simili). Una via europea: aperta, diversificata, rispettosa delle differenze culturali e dei sistemi di valori.
L’argomento sulla diversità è articolato con cura. Se il futuro prevede che la maggior parte della nostra “dieta informativa” sarà mediata da assistenti AI, avere solo due opzioni (modelli proprietari americani o modelli open source cinesi che non possono rispondere liberamente su certe questioni storiche) non è, nelle sue parole, «un futuro molto piacevole e stimolante». Così come abbiamo bisogno di diversità nella stampa, abbiamo bisogno di diversità negli assistenti AI: diversi sistemi linguistici, diversi sistemi di valori, diversi centri di interesse.
AMI Labs, in questo senso, non è solo una startup. È anche un progetto di politica tecnologica. Non a caso tra i suoi investitori ci sono Bpifrance (il braccio di investimento dello Stato francese), il Groupe Industriel Marcel Dassault (proprietario tra l’altro di Le Figaro), e Xavier Niel, il pioniere del digitale francese già sostenitore di iniziative come Kyutai. Il fatto che LeCun sia consulente scientifico proprio di Kyutai (il laboratorio francese di ricerca sull’AI fondato tra gli altri da Niel, Rodolphe Saadé ed Eric Schmidt) non è un dettaglio trascurabile: suggerisce una visione di ecosistema, non di singola impresa.
La scelta della Francia è anche pragmatica. «In Europa c’è una concentrazione di talenti molto elevata, ma non viene sempre offerto loro il giusto ambiente per sbocciare», ha detto LeCun. La Francia, in particolare, ha un sistema di formazione scientifica di alto livello (grandes écoles, dottorati di ricerca, una tradizione di matematica applicata) e negli ultimi anni ha costruito un ecosistema di startup AI significativo, anche grazie all’impulso governativo (il Piano Nazionale per l’AI lanciato da Macron nel 2018 aveva proprio LeCun come advisor). Il problema è sempre stato la capacità di trattenere i talenti quando le big tech americane arrivano con offerte economicamente inarrivabili per qualunque laboratorio europeo.
AMI Labs cerca di rispondere anche a questo problema. Con un miliardo di dollari di finanziamento, può offrire compensation competitive, accesso a risorse computazionali significative e (forse la leva più importante), la promessa di lavorare su problemi di ricerca fondazionale senza la pressione dei prodotti a breve termine.
Le voci critiche: cosa non convince di AMI Labs
Sarebbe un errore dipingere Yann LeCun solo come un visionario coraggioso contro il pensiero unico. Ci sono critiche serie, avanzate da ricercatori seri, che meritano di essere considerate.
La più pungente viene da Stuart J. Russell, professore a Berkeley e autore del testo standard di AI “Artificial Intelligence: A Modern Approach”. Quando LeCun ha iniziato a parlare pubblicamente di “world models” come della grande novità, Russell ha commentato con ironia che «l’AI utilizza i modelli del mondo fin dagli anni Cinquanta, e diverse sottobranche dell’AI dipendono interamente da essi. È più o meno originale e brillante quanto suggerire che la matematica potrebbe essere utile per la fisica.» È una critica di merito: il termine “world models” non è nuovissimo, e la difficoltà non sta nel concetto ma nell’implementazione a scala. Nessuno ha ancora dimostrato che JEPA, o qualunque altra architettura non generativa, possa scalare fino ai livelli necessari per applicazioni industriali complesse.
C’è poi il dibattito su AI safety, nel quale LeCun occupa una posizione che molti considerano eccessivamente ottimistica (o, nelle versioni più critiche, strategicamente conveniente). Geoffrey Hinton, il suo ex supervisore, nel corso del 2025 ha intensificato i suoi avvertimenti sul rischio esistenziale dell’AI avanzata. Yoshua Bengio, il terzo “padrino” del deep learning, ha firmato lettere aperte chiedendo maggiore cautela nello sviluppo dell’AI. LeCun invece ha sistematicamente minimizzato queste preoccupazioni, sostenendo che un’AI davvero pericolosa è di là da venire e che intanto ci stiamo perdendo opportunità enormi per paura di scenari ipotetici.
Su LessWrong, uno dei forum di riferimento della comunità interessata alla sicurezza dell’AI, sono circolati thread che cercano di capire se LeCun abbia torto per errore tecnico onesto o per qualche combinazione di incentivi istituzionali. Un partecipante al dibattito ha scritto: «LeCun non è certamente stupido in termini di intelligenza generale; il suo lavoro sul machine learning è stato citato oltre 300.000 volte, con un h-index di 143. Allora, si tratta semplicemente di ragionamento motivato da parte di qualcuno con fortissimi incentivi professionali e finanziari a promuovere la ricerca sulle capacità dell’AI?» La domanda è legittima anche se scomoda. Ma è opportuno notare che non è necessariamente più strano difendere la propria posizione tecnica di quanto non lo sia cambiare idea seguendo le mode del settore.
C’è poi una critica di natura epistemologica, articolata con eleganza su diversi forum tecnici: LeCun crea una falsa dicotomia. LLM contro world models non è necessariamente la scelta che il campo dovrà fare. I sistemi più avanzati combinano già architetture diverse: i recenti “reasoning models” integrano elementi di pianificazione sui sistemi linguistici, i modelli multimodali incorporano segnali visivi e audio. Potrebbe essere che la strada verso l’AI avanzata passi non per una rottura radicale con i transformer, ma per ibridazioni sempre più sofisticate. Il campo di ricerca sui world models è ancora giovane, e la distanza tra i risultati di laboratorio e le applicazioni industriali scalabili è notevole.
C’è infine la questione della governance. Un problema (e qui la critica non viene dalla comunità AI safety ma dagli studi sulla governabilità dell’AI) riguarda proprio la caratteristica che LeCun considera un vantaggio dei world models rispetto agli LLM: la capacità di agire nel mondo fisico. I sistemi basati su world models, se funzionano come LeCun prevede, non “allucinano in parole”. Commettono errori nel mondo fisico. I loro errori potrebbero non essere visibili e interrogabili come quelli di un chatbot che produce testo. Questo crea un problema di auditabilità e responsabilità legale che le istituzioni regolative non hanno ancora imparato a gestire.
Il paradosso della valutazione: un miliardo per un’ipotesi
Uno degli aspetti più affascinanti (e per qualcuno inquietanti) di AMI Labs è il divario tra la sua valutazione di mercato e la sua maturità tecnologica. Tre virgola cinque miliardi di dollari per un’azienda che, per sua stessa ammissione, non genererà prodotti commerciali per almeno un anno, probabilmente di più.
LeBrun è stato esplicito con TechCrunch: «AMI Labs è un progetto molto ambizioso, perché parte dalla ricerca fondazionale. Non è la tipica startup AI applicata che può rilasciare un prodotto in tre mesi, avere entrate in sei mesi e raggiungere dieci milioni di dollari di ricavi ricorrenti annuali in dodici mesi.» Il ciclo temporale di AMI Labs si misura in anni, forse in un decennio. La scommessa degli investitori non è sul prodotto. È sul paradigma.
Questo non è del tutto nuovo nell’AI. World Labs, la startup di Fei-Fei Li focalizzata anch’essa sui world models, ha ottenuto un miliardo di dollari di finanziamento nel febbraio 2026, per un totale complessivo di circa 1,3 miliardi, senza prodotti commerciali sul mercato. Gli investitori di LeCun e Li stanno essenzialmente comprando opzioni sul futuro dell’AI: se il paradigma dei world models si afferma davvero come LeCun prevede, chi ha investito presto avrà un vantaggio enorme. Se non si afferma, avranno perso un miliardo.
È una struttura di incentivi non priva di distorsioni. LeBrun stesso ha previsto che “world models” diventerà il prossimo buzzword e che ogni startup cercherà di riposizionarsi sotto quell’etichetta per raccogliere fondi. Questo rischio (che la visione tecnica venga inquinata dalla finanziarizzazione del concetto) è reale. LeCun ne è consapevole. La risposta che AMI Labs ha dato finora è di puntare sulla pubblicazione aperta dei risultati («pubblicheremo i risultati man mano che avanziamo») e sull’open source del codice. È una scelta coerente con i suoi valori di lungo periodo, ma richiederà disciplina per essere mantenuta sotto la pressione degli investitori che naturalmente vogliono massimizzare il vantaggio competitivo.
Cosa distingue davvero LeCun dagli altri protagonisti dell’AI
Quando si tenta un bilancio critico di Yann LeCun, conviene distinguere tra tre piani che spesso vengono confusi nel dibattito pubblico.
Sul piano tecnico, la sua tesi centrale (che i LLM abbiano limiti strutturali nella comprensione del mondo fisico) è condivisa da un numero significativo di ricercatori seri, anche tra coloro che non concordano con tutte le sue posizioni. La questione non è se i LLM abbiano limitazioni (le hanno, e gravi), ma se JEPA e i world models siano la risposta giusta, se i tempi che LeCun prevede siano realistici, e se la separazione “LLM o world models” sia la dicotomia corretta.
Sul piano filosofico, LeCun porta nel dibattito prospettive genuinamente interessanti. Il rifiuto del termine “AGI” a favore di “AMI” non è solo marketing: riflette una visione più sfumata di cosa significhi essere intelligenti. «Nessun sistema di AI, nessun sistema intelligente è davvero generale, nemmeno gli esseri umani», ha osservato. Gli esseri umani non sono intelligenti in senso generale: siamo specializzati, incarnati, dipendenti da un corpo e da un ambiente fisico. Costruire una macchina che raggiunga l'”intelligenza generale umana” potrebbe essere, letteralmente, costruire la cosa sbagliata.
Sul piano del carattere intellettuale, LeCun possiede qualcosa di raro nel mondo dell’AI contemporanea: è disposto a stare in minoranza per anni senza cambiare posizione solo perché gli altri non sono d’accordo. Ha sostenuto le reti neurali quando erano impopolari. Ha sostenuto l’open source quando sembrava una scelta commercialmente suicida. Sostiene i world models mentre il mercato è ancora completamente dominato dagli LLM. Può avere torto (e potrebbe avere torto su punti importanti) ma il suo dissenso è strutturato, argomentato, e si basa su decenni di ricerca sul campo.
Chi si occupa professionalmente di intelligenza artificiale applicata, guarda ad AMI Labs non solo nella sua dimensione finanziaria o tecnica, ma forse più nella sua “postura”: un laboratorio di ricerca fondazionale che si propone di fare ricerca aperta, pubblicando i risultati, rilasciando codice open source, lavorando con partner industriali ma senza la pressione di monetizzare ogni risultato nel trimestre successivo. In un momento in cui il dibattito sull’AI Economy (intesa come l’insieme delle trasformazioni che l’intelligenza artificiale sta imprimendo ai modelli produttivi, alle catene del valore e agli equilibri competitivi globali) tende a concentrarsi esclusivamente su chi vince la corsa ai benchmark, questa atteggiamento è già di per sé un’anomalia degna di attenzione.
Il momento storico: tra hype e opportunità di riposizionamento
AMI Labs nasce in un momento peculiare per l’intelligenza artificiale. Da una parte, l’hype ha raggiunto livelli che molti osservatori considerano insostenibili: valutazioni stratosferiche, promesse di AGI imminente, investimenti che ricordano (anche nelle dimensioni) le bolle precedenti. Dall’altra, emergono i primi segnali di disillusione: benchmark sempre più contestati, prodotti “agentic” che funzionano male, prestazioni reali sistematicamente inferiori alle aspettative degli utenti.
In questo contesto, la scommessa di LeCun ha senso anche come posizionamento di mercato a lungo termine. Se l’attuale ciclo dell’AI generativa porta a una correzione (non necessariamente un crash, ma una normalizzazione delle aspettative) chi ha lavorato su architetture alternative e su applicazioni industriali solide potrebbe trovarsi in una posizione privilegiata. I settori a cui AMI Labs punta (robotica, automazione industriale, sanità, sistemi autonomi) sono quelli in cui l’affidabilità è letteralmente una questione di vita o di morte, e in cui le allucinazioni di un LLM non sono accettabili.
Allo stesso tempo, la storia dell’AI è piena di parabole di ricercatori brillanti che avevano ragione troppo presto. LeCun stesso ha vissuto il “winter” delle reti neurali, i decenni in cui i fondi si prosciugavano e il mainstream del settore guardava altrove. Sa cosa significa costruire in attesa del momento giusto. La domanda è se AMI Labs (con il suo miliardo di dollari di finanziamento, la sua squadra di star e le sue ambizioni continentali) riuscirà a costruire l’infrastruttura teorica e pratica prima che arrivino i concorrenti ben finanziati che inevitabilmente seguiranno.
Il valore del dissenso nell’ecosistema AI del 2026
Nell’ecosistema dell’AI del 2026, dove il consenso si costruisce velocemente e si difende ferocemente, Yann LeCun svolge un ruolo che va oltre il tecnico o l’imprenditore. È il dissidente metodico: colui che ricorda al campo, ogni volta che si convince di aver trovato la risposta definitiva, che le domande più importanti potrebbero non essere ancora state formulate correttamente.
Può avere torto su cose importanti. La sua visione dei world models come alternativa radicale agli LLM potrebbe dimostrarsi parzialmente sbagliata, o almeno prematura. Le sue posizioni sulla sicurezza dell’AI potrebbero riflettere, almeno in parte, incentivi strutturali che non ha ancora del tutto integrato nella sua analisi. La valutazione di 3,5 miliardi di dollari per AMI Labs potrebbe rivelarsi eccessiva se i tempi di sviluppo si prolungano.
Ma il fatto che stia costruendo qualcosa invece di limitarsi a criticare ha già cambiato il tono del dibattito. Quando il Turing Award winner e co-fondatore della ricerca moderna sul deep learning investe la propria reputazione su un’architettura alternativa e raccoglie un miliardo di dollari per testarla nel mondo reale, il campo deve prendere sul serio la domanda che sta ponendo: stiamo davvero costruendo la cosa giusta?
«Vogliamo diventare il principale fornitore di sistemi intelligenti, qualunque sia l’applicazione», ha detto LeCun a Reuters, definendo l’ambizione di AMI Labs. È un obiettivo di enorme portata, forse irraggiungibile nel tempo che il mercato concede alle startup. Ma è anche un obiettivo che, se anche parzialmente realizzato, potrebbe ridisegnare il modo in cui pensiamo all’intelligenza artificiale: non come un sistema che genera testo plausibile, ma come qualcosa che capisce, pianifica e agisce nel mondo che abitiamo.
AMI Labs è, in ultima analisi, una scommessa sul futuro. Una scommessa di un miliardo di dollari, certo. Ma soprattutto una scommessa intellettuale: la più rischiosa e forse la più necessaria.











