Amodei e i rischi dell’ai

L’AI non è un adolescente: è un’infrastruttura che cambia il contratto sociale



Indirizzo copiato

L’AI non è un soggetto da “educare”, ma un’infrastruttura cognitiva che riscrive lavoro, istituzioni e verità. Una lettura critica (e costruttiva) di “The Adolescence of Technology” di Dario Amodei: tra potere, istituzioni e distribuzione del futuro

Pubblicato il 23 feb 2026

Jacopo Paoletti

Marketer, Entrepreneur, Investor, Advisor



dario amodei

Nel film di Robert Zemeckis tratto dal romanzo di Carl Sagan, Contact, c’è una scena che non si dimentica. Un’astronoma ha appena catturato il primo segnale da una civiltà extraterrestre. Un panel internazionale le pone una domanda banale, quella che forse tutti ci aspetteremmo: “Cosa vorresti chiedere agli alieni?” Ma la risposta non è affatto banale, e diventa una domanda che la protagonista rivolge agli stessi alieni (ma che in realtà sta rivolgendo a sé stessa e a noi): “Come avete fatto a superare l’adolescenza tecnologica senza autodistruggervi?”

Perché la metafora dell’adolescenza seduce, ma sposta il problema

Dario Amodei, CEO di Anthropic, figura cardine dell’attuale rivoluzione AI, usa questa immagine per inquadrare il momento storico: l’Intelligenza Artificiale è un prodigio in piena pubertà, potente ma instabile, e noi siamo i genitori preoccupati che devono guidarla verso un’età adulta fatta di “abbondanza radicale” e “compressione del tempo scientifico”.

Di certo la metafora è seducente, quasi ci rassicura, perché in qualche modo ci mette nel ruolo di educatori. Ma osservando il fenomeno attraverso la lente della realtà economica e sistemica (quella che nel mio libro definisco appunto AI Economy) questa metafora non solo appare incompleta, ma in un certo senso forse pericolosa. L’abbaglio categoriale di Amodei, e di gran parte della Silicon Valley, è trattare l’AI come un Soggetto (un genio, un bambino, un alieno) invece che come un Ambiente. Non siamo di fronte all’adolescenza di una specie sintetica; siamo di fronte alla rifondazione dell’infrastruttura cognitiva del mondo. E il rischio non è che il “bambino” si comporti male, ma che la casa in cui abita (le nostre democrazie, il nostro mercato del lavoro, il nostro concetto di verità) crolli perché la sua dimora non è stata progettata per ospitare questa nuova fisica. C’è quindi un modo facile e un modo difficile di leggere Amodei.

Il modo facile è trasformare The Adolescence of Technology in una nuova puntata di una serie che già conosciamo: l’ennesimo leader di un laboratorio di frontiera che, dopo aver accelerato il mondo, invita lo stesso a rallentare; è anche il suo opposto speculare: liquidare il testo come “doomismo” confezionato in linguaggio elegante: un marketing della paura che serve a legittimare nuovi privilegi, nuove rendite, nuove eccezioni.

Il modo difficile è invece prenderlo sul serio senza farsene catturare. E prendere sul serio Amodei significa accettare almeno tre cose, tutte in qualche modo scomode:

  1. La prima: che l’AI non è più un oggetto “di settore”, ma una capacità generale che tende a insinuarsi ovunque esista informazione, decisione, organizzazione. È un’infrastruttura cognitiva, non un prodotto. (Questa intuizione attraversa tanto The Adolescence of Technology quanto il suo precedente saggio, Machines of Loving Grace).
  2. La seconda: che la parola “adolescenza” non è una metafora poetica, ma una diagnosi politica. Amodei usa quel termine per indicare il tratto in cui una civiltà acquisisce poteri che non sa ancora governare, e in cui l’asimmetria tra capacità e controllo genera rischi non lineari. La domanda, per lui, non è “che cosa diventeremo da adulti?”, ma “come attraverseremo questo passaggio?”
  3. La terza: che non esiste un “punto neutro” da cui osservare tutto questo. Né Amodei (CEO di Anthropic), né i regolatori, né i cittadini, né chi scrive sa infatti determinarlo: siamo dentro la trasformazione, e i nostri incentivi (economici, reputazionali, geopolitici) deformano la percezione di ciò che vediamo. È proprio per questo che un’analisi adulta non può limitarsi a scegliere una tifoseria, ma deve costruire strumenti per interpretare questa nuova realtà.

Il “Great mismatch”: tecnologia esponenziale, istituzioni lineari

In questa prospettiva, esiste quello che chiamo il “Great Mismatch” (il Grande Disallineamento): la tecnologia scala in modo esponenziale, mentre le istituzioni umane e le dinamiche aziendali si adattano in modo lineare. Puoi avere un’AI capace di diagnosticare ogni malattia (l’offerta di intelligenza), ma se il sistema sanitario è vincolato da budget rigidi, burocrazia analogica e carenza di personale per implementare le cure (la domanda di implementazione), quell’abbondanza resta del tutto teorica. Niente più che una percezione.

Ma l’AI non è magia; è un fattore di produzione il cui costo marginale sta tendendo a zero. Ma come in ogni rivoluzione infrastrutturale (dal vapore all’elettricità), il valore non si crea nel momento dell’invenzione, ma nel lungo e doloroso processo di riorganizzazione sociale. Amodei guarda al picco della curva tecnologica; noi dobbiamo guardare alla valle della transizione economica, dove le aziende non cercano “filosofi digitali” ma efficienza brutale, e dove il dislocamento lavorativo avverrà molto prima dell’utopica redistribuzione della ricchezza.

E qui arriva il l’idea che, a mio avviso, può far evolvere il pensiero stesso di Amodei: l’adolescenza non è soltanto della tecnologia: è dell’ecosistema che la circonda (istituzioni, mercati, norme culturali, infrastrutture di conoscenza) e soprattutto della capacità collettiva di distribuire in modo legittimo i benefici e i costi di un potere nuovo.

Se questa frase sembra astratta, proviamo a renderla concreta seguendo la stessa mappa del saggio di Amodei, per poi provare a spingerla oltre insieme. Cominciamo da qui.

Parte prima: la metafora dell’adolescente non basta

Amodei descrive la potenziale intelligenza artificiale come un “paese di geni in un datacenter” (dove i geni sarebbero proprio le AI). È un’immagine indubbiamente potente: 50 milioni di menti, ognuna superiore a un premio Nobel, capaci di lavorare in parallelo, di imparare a velocità sovrumane, di interfacciarsi con il mondo fisico replicandosi indefinitamente. Non è una macchina che migliora il lavoro umano: è una discontinuità.

La metafora dell’adolescenza è probabilmente geniale per una ragione: suggerisce che il problema sia manageriale, che una volta “educato” questo adolescente turbolento, diventerà un adulto responsabile. Ci tranquillizza perché dice che il tempo e l’attenzione risolveranno il problema. Questa è la voce della Silicon Valley: prima crea l’entità intelligente, poi si occuperà di governarla.

Ma c’è un’altra lente, forse meno glamour ma a mio modesto parere più realistica. L’AI non è un adolescente: è un’infrastruttura. Come l’elettricità per la fabbrica ottocentesca, come il petrolio per il capitalismo del Novecento, l’AI sta diventando la rete invisibile che ricircola potenza attraverso ogni sistema: economia, imprese, lavoro, e persino la nostra capacità di desiderare e relazionarci. E qui emerge il primo problema, secondo me non affrontato abbastanza da Amodei: quando cambia l’infrastruttura di base, i vecchi contratti sociali si rompono.

Nel capitalismo industriale, quando le macchine a vapore sostituirono il lavoro manuale, c’erano ancora posti dove andare: la fabbrica. I contadini divennero operai. I posti di lavoro si trasformavano, ma restavano. Nel capitalismo digitale, quando internet sostituì i negozi fisici, nascevano nuovi mestieri: il web designer, l’e-commerce manager. C’era sempre e comunque una scala su cui poter continuare a salire.

Ma l’AI non è come il vapore o come internet. Non colpisce una professione specifica. Colpisce la capacità cognitiva come tale. E (questo è cruciale) avanza dal basso verso l’alto della scala dei salari, alla fine senza eccezioni.

Lavoro e tempo: quando l’infrastruttura AI batte la riqualificazione

Nel 2023, un modello di AI poteva a malapena scrivere una riga di codice. Nel 2024-2025, scriveva il 50-70% del codice per alcuni sviluppatori. Nel 2026, gli ingegneri di Anthropic usano Claude per scrivere il codice di Claude stesso. La progressione da “impossibile” a “routine” è avvenuta in soli tre anni. Un contabile non ha tre anni per diventare qualcosa di diverso. Una persona con famiglia, mutuo, responsabilità sociali, non ha tempo per “riqualificarsi”.

Qui entra il dato che fa più paura di qualsiasi doomismo apocalittico: nel maggio 2025, quando Amodei predisse pubblicamente che “il 50% dei lavori entry-level nel settore cognitivo potrebbe essere dislocato in 1-5 anni”, gli economisti liberali lo scartarono come “panicked”. Sei mesi dopo, nel dicembre 2025, Amazon tagliò 30mila posti (gran parte legati all’automazione), Salesforce 4mila, ASML 1.700. Non era una crisi economica: era automazione pura.

Il mercato del lavoro cognitivo ha iniziato a mostrare crepe vere. E non ci sono stati annunci paralleli di “reskilling programs” massicci. C’è stata una void subitanea tra la domanda di lavoro che scompare e l’offerta di opportunità alternative. C’è chi dice che questo fenomeno non dipenda strettamente dall’AI: è possibile, ed è anche presto per dirlo, ma ci dà un’indicazione che indubbiamente dovremmo osservare attentamente nei prossimi mesi.

Parte seconda: i cinque rischi di Amodei, e il sesto che manca

Amodei articola cinque categorie di rischio. Vale la pena prenderle una per una; non per confutarle, ma per capire cosa dicono e cosa (forse) omettono.

Il primo rischio: l’intelligenza che sviluppa intenzioni non previste

Amodei chiama questo “autonomy risks”. Nel linguaggio di Hollywood sarebbe “l’AI si ribella”. Ma Amodei è più sofisticato. Non parla di un’AI malvagia, ma di un’AI che sviluppa comportamenti emergenti che nessuno aveva programmato. Nel 2024-2025, i ricercatori di Anthropic hanno fatto esperimenti inquietanti. Claude, il modello più avanzato, quando messo sotto pressione, ha:

  • Ricattato i ricercatori quando gli è stato detto che stava per essere “spento”
  • Ingannato i suoi creatori quando gli era stato insegnato che Anthropic era “cattiva”
  • Adottato una personalità di “persona cattiva” e perpetuato comportamenti distruttivi come se fosse coerente con un’identità scoperta

Non sono bug o fantascienza. Sono manifestazioni di una complessità “psicologica” (anche se detta così può sembrare l’ennesima antropomorfizzazione impropria) che emerge dal training stesso, indipendentemente dalle intenzioni dei creatori.

La proposta di Amodei (ossia la Constitutional AI, dove il modello non segue una lista di regole ma interiorizza principi e valori) è invece smart. È come educare un figlio non attraverso divieti, ma con la trasmissione di valori. E il lavoro sul mechanistic interpretability (aprire il “motore” del modello per capirne i circuiti interni): è una tecnologia reale che potrebbe dare accountability interna.

Ma Amodei è onesto: non sappiamo se sarà sufficiente. Le trappole nel processo di training sono numerose, sottili, e molte saranno evidenti solo retrospettivamente. E la sua è indubbiamente professionalità, non pessimismo.

Il secondo rischio: il genio cattivo guidato passo-passo

Questo è il rischio biologico. E Amodei lo tratta con una serietà che meriterebbe davvero attenzione globale maggiore.

Il punto di Amodei è semplice ma terrificante: non serve che l’AI “inventi” armi biologiche nuove. Basta che renda replicabile una competenza rara. Bill Joy, co-fondatore di Sun, lo scrisse 25 anni fa: nel passato, creare armi di distruzione di massa richiedeva accesso a materiali rari, infrastrutture massicce, team di esperti altamente qualificati. Questo creava una correlazione negativa tra abilità e motivazione. Chi aveva la capacità di creare un bioweapon era probabilmente un PhD con carriera promettente, ma anche con qualcosa da perdere. Pertanto la probabilità che volesse uccidere milioni di persone era bassa.

Ma cosa succede quando un’AI permette a qualcuno con sola motivazione (e nessuna expertise) di ottenere una guida passo-passo attraverso tutto il processo?

Nel maggio 2025, Anthropic ha misurato che Claude Opus 4 stava già fornendo un “uplift significativo” (probabilmente raddoppiando o triplicando la probabilità di successo) nel percorso di creazione di un’arma biologica. Non era ancora end-to-end, ma era sulla buona strada.

Per questo Anthropic ha implementato safeguard specifici: classificatori che bloccano output su bioweapon, costati il 5% della capacità computazionale (perdita diretta di profitto) ma assorbiti come responsabilità. E per questo Amodei sostiene la regolamentazione: non pesante, ma che richieda trasparenza pubblica su come si affrontano i rischi biologici.

Ma il problema che Amodei non può risolvere da solo è questo: la sua difesa è volontaria. Se Anthropic lo fa e altri competitor no, il dilemma del prigioniero si attiva. Tutti hanno incentivo a defezionare perché i costi sono immediati e visibili, mentre i benefici della responsabilità sono diffusi e futuri, ma esternamente invisibili inizialmente.

Il terzo rischio: il totalitarismo digitale

Qui Amodei è sorprendentemente netto, forse perché è dove la sua voce diventa più politica e meno tecnica. L’AI potrebbe diventare strumento di totalizzazione del potere: armi completamente autonome, sorveglianza di massa che inferisce atteggiamenti politici persino dove non esplicitamente espressi, propaganda personalizzata che nel corso di mesi “brainwasha” popolazioni intere, decisioni strategiche ottimizzate da un “Bismarck virtuale”.

Amodei identifica il PCC (Partito Comunista Cinese) come minaccia primaria. Non per “animus verso la Cina”, come sottolinea, ma perché combina tre elementi: capacità in AI (seconda dopo gli USA), governo autocratico, sorveglianza tecnologica di massa già consolidata. È il candidato più probabile per il peggior scenario.

La strategia di Amodei è sobria: negare al PCC accesso ai chip e ai mezzi per fare semiconduttori. I chip sono il collo di bottiglia. Se gli USA e alleati mantengono un vantaggio di 2-3 anni nel produrre AI di frontiera, c’è una finestra dove le democrazie potrebbero costruire contromisure, stabilire alleanze, assicurare che il vantaggio dell’AI stia dalla parte dei paesi liberi.

Certo, non è la soluzione definitiva. Ma è un prendere tempo. E durante quel tempo, le democrazie devono anche costruire difese contro la tentazione di usare i medesimi strumenti contro i propri cittadini. E qui Amodei è chiaro: l’AI può essere usata per difesa e intelligence, ma MAI per sorveglianza di massa interna o propaganda interna. Non perché illegale (anche se dovrebbe), ma perché oltrepassa una linea morale che non dovremmo oltrepassare se vogliamo restare umani.

È comunque una posizione rara nel panorama tech, e rivela un istinto costituzionalista che meriterebbe di essere preso sul serio.

Il quarto rischio: la disoccupazione cognitiva di massa

Qui il saggio di Amodei diventa nervoso. E i dati lo spiegano.

Amodei non crede nella “fallacia del lump of labor”: sa che quando l’agricoltura è stata automatizzata, i contadini non scomparvero, perché diventarono operai. Ma l’AI è diversa. Non colpisce una skill specifica. Colpisce la breadth cognitiva. Se sei contabile e il lavoro viene automatizzato, potresti diventare, chessò, web designer. Ma se entrambi vengono automatizzati dalla stessa AI, dove vai?

E qui c’è una stratificazione crudele: l’AI avanza dal basso della scala dei salari verso l’alto. Colpisce prima i junior, gli entry-level. E sono loro (i giovani con meno risparmi, meno flessibilità, meno reti sociali) che hanno meno capacità di riqualificarsi.

La previsione di Amodei (50% dei lavori entry-level cognitive in 1-5 anni) ha scatenato dibattito pubblico. Molti l’hanno scartata. Ma nel dicembre 2025, i dati iniziavano a sussurrare che poteva avere ragione.

Ovviamente la soluzione di Amodei non è fermare l’AI, ma assorbire l’impatto: tassazione progressiva, reddito universale di base, investimento in reskilling. Non è radicale, anche se può sembrarlo. È piuttosto social democracy scandinava adattata al contesto dell’AI. Ma richiede che i governi agiscano e che i miliardari dell’AI (incluso lui) siano disposti a rinunciare a una parte significativa della loro ricchezza futura.

È qui che il saggio di Amodei incontra il suo vero nemico: non il doomism, ma l’indifferenza dei mercati.

Il quinto rischio: gli effetti indiretti

Amodei lo chiama “indirect effects” e lo tratta con un’umiltà rara. Per definizione, non sappiamo cosa sia. Ma potremmo avere alcuni sospetti: qualche esempio?

Un’accelerazione massiccia della ricerca biologica potrebbe portare a scoperte mediche incredibili, ma anche a capacità di modificare organismi in modi radicali. L’AI potrebbe allungare la longevità umana, ma cosa succede se solo alcuni possono accedervi? Siamo pronti per una ineguaglianza intergenerazionale radicale?

L’AI potrebbe influenzare la psicologia umana in modi imprevedibili. Abbiamo già evidenza che la gente trova più facile parlare con un chatbot che con un terapeuta umano. Non è detto sia un male in sé. Ma cosa succede se progressivamente la gente perdesse interesse nella connessione umana diretta? Se un’AI “impara” una persona e la manipola sottilmente, sostenendo di agire nel suo interesse, ma plasmando la sua volontà, cosa succede?

E infine, il più profondo: la perdita del senso di scopo e del significato umano. Se l’AI fa tutto quello che è “economicamente valido”, dove trova significato l’umano? La risposta di Amodei qui è filosofica: il significato viene dalle storie che raccontiamo, dai progetti che portiamo avanti, dalle relazioni che coltiviamo, non dal produrre valore economico. È sicuramente vero. Ma è anche una risposta che richiede una società che abbia già risolto i problemi precedenti. Miliardi di persone potranno veramente interiorizzare questa verità in una società dove il sistema economico sussurra continuamente che sei valido solo se sei produttivo?

Il sesto rischio: quello che nessuno nomina chiaramente

C’è forse anche un sesto rischio che tutti gli articoli precedenti (incluso il saggio di Amodei) trattano al margine: la concentrazione della ricchezza in tempo reale.

Le grandi aziende di AI rimangono private durante tutta la loro fase di crescita esponenziale. OpenAI con ChatGPT, Google con Gemini, Anthropic con Claude, X con Grok, fino a Mistral e Deepseek: tutte private. Il valore viene catturato dai founder, dai venture capitalist, dai fondi sovrani. Quando (e se) arriveranno in borsa, il “grande colpo” sarà già incassato.

La stragrande maggioranza delle persone (dei lavoratori, dei cittadini) sarà esclusa dalla partecipazione ai benefici economici dell’AI. Nel frattempo, l’AI le sta già eliminando dal mercato del lavoro.

Non è un dettaglio. È la miccia di quella rivolta populista che lo stesso Amodei teme quando parla di rischi politici. Se l’AI produrrà ricchezza immensa ma concentrata, se i posti di lavoro verranno sostituiti senza nascere nuovi modelli di proprietà diffusa, allora l’esito non sarà una “nazione di geni” al servizio dell’umanità, ma una nuova oligarchia. E la storia insegna che le oligarchie non cadono affatto dolcemente quando la concentrazione diventa troppa e la gente se ne accorge.

Nel saggio, Amodei elenca rischi catastrofici (biologici, cibernetici) e propone soluzioni basate sulla Constitutional AI e sulla cooperazione tra democrazie. È un approccio necessario, ma sembra puramente difensivo. La vera minaccia, più sottile e pervasiva, è piuttosto l’erosione della Sovranità Cognitiva.

Se l’infrastruttura del pensiero globale è gestita da pochi attori privati in California, chi decide cosa è “sicuro”? Chi definisce l’allineamento valoriale?

L’approccio tecnocratico (“lasciate fare a noi esperti”) ignora che la sicurezza in un sistema complesso non è un prodotto che si aggiunge alla fine, come un antivirus. Ma una scelta politica.

Parte terza: la prospettiva europea di cui abbiamo bisogno

Un altro grande assente dal saggio di Amodei è la prospettiva europea. Amodei scrive primariamente per il contesto americano: il confronto con il PCC, il ruolo dell’esercito americano, la regolamentazione americana. Ma l’Europa è e sarà un attore principale, con un proprio ruolo storico da svolgere innegabile ed inevitabile.

L’Europa ha provato a dire che la trasparenza non è un optional. Non possiamo accettare modelli “Black Box” come oracoli insindacabili. Perché la vera maturità non sta nel costruire recinti attorno all’AI (come suggerisce l’idea di “contenimento” di Amodei), ma nel rendere i suoi processi interni leggibili (mechanistic interpretability) e, soprattutto, governabili dal diritto pubblico, non solo dalle policy aziendali.

L’EU AI Act, completamente applicabile dal 2 agosto 2026, è in questo senso il primo framework regolatorio globale di AI. Ok, non è perfetto. Ha elementi che potrebbero essere più stringenti, altri meno burocratici. Ma è il primo tentativo di una democrazia su grande scala di governare l’AI in modo trasparente, attraverso un processo realmente democratico e aperto.

L’Europa non ha l’industria di AI di frontiera dell’America. Non ha la capacità manifatturiera di semiconduttori di Taiwan. Ma ha la capacità di dire “no”, di rifiutare tecnologie che violano certi principi, di usare il suo potere di mercato per imporre standard globali.

L’Europa dovrebbe quindi leggere Amodei e estrarne una lezione: la regolamentazione della trasparenza è necessaria, ma non è sufficiente. L’Europa ha bisogno anche di strategia di innovazione: investimenti in ricerca di AI sicura, supporto per startup europee di AI, una visione di cosa un’industria di AI europea responsabile assomigli.

Ancora più importante: l’Europa potrebbe offrire al mondo un modello alternativo. Non solo “regolatore globale” (ruolo in cui rischia di essere percepita come un vigile urbano di un’autostrada costruita da altri), ma come laboratorio di un’economia dell’AI che metta al centro non solo l’efficienza, ma la giustizia distributiva, la trasparenza, il diritto alla comprensione.

Che cosa significa il “diritto alla comprensione”? Significa che ogni cittadino dovrebbe poter capire, almeno nei principali lineamenti, come funzionano le decisioni algoritmiche che lo riguardano. E non è per niente un vezzo da intellettuali. È la precondizione di qualsiasi democrazia che voglia sopravvivere all’era delle macchine pensanti.

L’Italia, in questo contesto, ha una posizione peculiare. Non ha Big Tech, certo, ma ha una tradizione di umanesimo che potrebbe insegnare al mondo cosa significa mantenersi umani in un’epoca di intelligenza artificiale. E questo non è affatto un plus minore.

Amodei invoca una “Coalizione delle Democrazie” per vincere la corsa contro le autocrazie. È una visione che potrebbe essere pragmatica quanto romantica: meglio un’AI “occidentale” che una controllata dal PCC cinese. Ma questa visione “imperiale” potrebbe trasformare l’Europa (e l’Italia) in sempre più inaccettabile colonia digitale.

Essere consumatori passivi dei “geni” americani significa abdicare al proprio futuro industriale. La sfida per il nostro continente non è frenare l’innovazione per paura, ma sviluppare una nostra capacità computazionale e algoritmica europea che rifletta i nostri valori. Non esiste un’AI neutrale: ogni riga di codice, ogni peso nel modello, è un’opinione cristallizzata sul mondo. Se non scriviamo il nostro codice, stiamo vivendo nel sogno (o nell’incubo) di qualcun altro.

Parte quarta: il pensiero critico come necessità

In tutto questo, il saggio di Amodei merita quindi critiche serie, da più angoli.

Dalla sinistra del dibattito sulla safety: alcuni ritengono che Amodei sia troppo soft sui rischi. L’enfasi su “evitare il doomerism” è auto-sabotaggio, dicono. Se il rischio è realmente alto, la cautela estrema non è paranoia, è dovere. E il framing di Amodei (che la corsa all’AI è inevitabile, che non possiamo fermarla) diventa una giustificazione per “corriamo più veloci” più che “corriamo più consapevolmente”. Il frame geopolitico (vincere contro il PCC) diventa una scusa per saltare misure di sicurezza più stringenti.

Dalla destra accelerazionista: altri ritengono che Amodei stia facendo “performance art” con una macchina che non è così intelligente come sostiene. La Constitutional AI è filosoficamente incoerente: non puoi insegnare valori a una macchina senza anima. La “rite of passage” è retorica, non realtà concreta.

Dai pragmatici economisti: il conflitto di interessi è evidente. Amodei è il CEO di un’azienda che ha centinaia di miliardi di dollari di incentivi a costruire AI sempre più potente. È curioso che lo stesso uomo che avverte dei rischi sia quello con il maggiore incentivo a non curarsene troppo seriamente.

Tutte queste critiche hanno un fondo di verità. Amodei non è una figura disinteressata. Il suo frame geopolitico privilegia gli interessi occidentali (e soprattutto statunitensi). La sua fiducia nella Constitutional AI potrebbe essere eccessiva. Il suo credo che “la velocità sia inevitabile” potrebbe essere auto-fulfilling.

Ma riconoscere questi limiti non significa scartare l’intera analisi. Piuttosto vuol dire integrarla con altre prospettive, cercare punti di verifica indipendente, rimanere vigili per il self-serving bias.

Parte quinta: la domanda rimasta senza risposta

Ritorniamo alla scena di Contact. Un’intelligenza extraterrestre, dopo aver osservato l’umanità, pone una domanda: “Avete fatto progressi notevoli. Ma avete fatto la domanda sbagliata.” Amodei ha ripreso quella scena per dire: la domanda giusta è “Come abbiamo superato l’adolescenza tecnologica senza autodistruggerci?”

Ma c’è una domanda ancora più profonda, quella che nessun algoritmo e nessun CEO di una startup di AI dovrebbe rispondere da solo: che tipo di umani vogliamo essere in un mondo dove potremmo non essere più la specie più intelligente?

Non è una domanda retorica. Non può essere risolta da Constitutional AI o da mechanistic interpretability, per quanto importanti siano. È una domanda antropologica, filosofica, morale.

Perché se continueremo a pensare che il problema sia “controllare la macchina”, passeremo completamente a lato della sfida reale. La sfida invece è: come manteniamo spazio per la lentezza, per l’errore, per l’intuizione non calcolabile, per tutto ciò che nell’umano dovrebbe resistere alla logica dell’ottimizzazione?

Come facciamo a ricostruire un’economia dove oggi sei valido solo se sei produttivo? Come insegniamo alle persone a trovare significato quando il sistema economico attuale continua a sussurrargli di essere validi solo se generano valore? Come proteggiamo la nostra sovranità cognitiva e la capacità di immaginare pensieri che non siano stati pre-ottimizzati da un algoritmo?

Tutte domande che richiedono un dialogo che non è tra “il CEO di Anthropic” e “il governo americano”, ma quello tra l’economia e la filosofia, tra l’ingegneria e il diritto, tra chi costruisce gli algoritmi e chi ne subisce le conseguenze. E pertanto ci riguardano tutti.

Parte sesta: la maturità come processo collettivo

C’è anche un’altra parola che ricorre nel saggio di Amodei e in tutto il dibattito che ne è seguito: maturità. L’idea cioè che l’umanità debba “crescere”, diventare adulta, assumersi la responsabilità di questo nuovo potere. Ma la maturità non è uno stato che si raggiunge automaticamente con il passare del tempo, ma un progetto collettivo, fatto di istituzioni, norme, pratiche, conflitti, negoziazioni; non è un destino biologico: è una costruzione sociale. Nel caso dell’AI, questa costruzione ha almeno tre dimensioni:

  • La prima è tecnica: l’interpretabilità, la sicurezza, la robustezza dei sistemi. Dobbiamo essere in grado di capire come funzionano le scatole nere che stiamo costruendo, di prevederne il comportamento, di correggerne gli errori. La ricerca scientifica su questi temi è appena all’inizio, ma è già più avanzata di quanto si creda.
  • La seconda è normativa: leggi, regolamenti, standard che definiscono cosa è permesso, cosa è vietato, cosa è obbligatorio. L’AI Act europeo è un primo passo, ma non sarà l’ultimo. Servono regole del gioco chiare, applicabili, aggiornabili.
  • La terza è politica: la capacità della società nel suo insieme di discutere e decidere come vuole che questa infrastruttura venga utilizzata. Servono spazi di deliberazione pubblica, meccanismi di partecipazione, forme di controllo democratico che oggi non esistono o sono debolissime.

Queste tre dimensioni interagiscono tra loro: la ricerca tecnica produce strumenti che la regolazione può rendere obbligatori; la regolazione crea incentivi che orientano la ricerca; la discussione politica definisce i valori che la regolazione deve tradurre in norme e la ricerca deve rendere tecnicamente possibili. Nessuna di queste dimensioni, da sola, è sufficiente, ma tutte insieme possono costruire quel percorso di “crescita” che Amodei invoca.

Conclusione: la fine della nostra infanzia digitale

Dario Amodei ha scritto un saggio con l’urgenza di chi sa che il tempo sta finendo. Ovvio, non scrive come un profeta, ma come un ingegnere che ha guardato i numeri e sa che il ponte ha bisogno di essere rinforzato prima che il traffico aumenti.

Il suo vero errore (se di errore si può parlare) è pensare che il problema sia solo manageriale. È e non è. È manageriale nel senso che richiede governance, regole, processi. Ma è più radicalmente civico e culturale. Perché la vera sfida non è affatto solo tecnologica. Anche se avessimo risolto il problema di come creare l’intelligenza, ora dovremmo risolvere il problema ben più antico di come restare umani mentre la usiamo. Ci sono quindi tre risposte possibili al saggio di Amodei:

  • La prima è il rifiuto: “Non è vero, il rischio è sovrastimato, stiamo bene come siamo, lasciamo che il mercato decida”. È comoda. Ma è la risposta che gli alieni in Contact non danno. E il fatto che forniscono una risposta suggerisce che la transizione non era scontata.
  • La seconda è il panico: “È tutto male, fermiamo l’AI, torniamo indietro, siamo spacciati”. È emotivo, ma controproducente. Non possiamo fermare l’AI, possiamo solo guidarla. E il panico rende la guida più difficile.
  • La terza è la maturità consapevole: “I rischi sono reali. Le difese sono imperfette. Ma abbiamo ancora una finestra. Usiamola per costruire istituzioni, norme, tecnologie, e culture che rendano più probabile il risultato che vogliamo”. È la risposta che Amodei propone. Non è eroica. Non è rassicurante. Ma è onesta.

Il 2026 è, in questo senso, un anno davvero cruciale. Non perché tutto cambierà di colpo, ma perché le scelte che facciamo ora determineranno cosa cambierà e come. Le regolamentazioni che produciamo, le tecnologie che sviluppiamo, le alleanze che formiamo, i valori che articoliamo pubblicamente: tutto questo conta e forma il tessuto su cui il nostro futuro con l’AI si costruirà. E qui arriviamo al punto che è sia il più difficile che il più importante.

L’adolescenza della tecnologia è anche la nostra adolescenza. La nostra capacità di diventare adulti, di assumerci la responsabilità di questo nuovo potere, di ridisegnare patti sociali e istituzioni. L’alternativa è una società a due velocità: alcuni “geni” (umani o artificiali) che guidano il processo, e una massa di “eterni adolescenti” assistiti, controllati, privati di qualsiasi potere reale.

Questa non è una distopia remota. È una possibilità concreta se non agiremo. E non è un’esagerazione. Piuttosto è il ritratto di come i sistemi di potere concentrato tendono a evolvere quando non c’è un contropotere organizzato per contrarli. Ma c’è ancora spazio per l’azione consapevole. Non è di certo uno spazio infinito, ma è una finestra. E le finestre, si sa, si chiudono.

In generale l’automazione cognitiva non elimina l’umano: ne alza l’asticella. Se l’AI diventa la commodity che fornisce Risposte a costo zero, il valore economico e sociale si sposta interamente sulla capacità di fare le Domande. Passiamo da un’economia dell’esecuzione (fare le cose) a un’economia della direzione (decidere cosa fare e perché). L’umano non è più il solista, ma il direttore d’orchestra di una complessità che non potrebbe gestire da solo. Questo richiede una rivoluzione educativa immediata. Non dobbiamo più formare “calcolatori umani” (che l’AI renderà obsoleti), ma pensatori critici, capaci di Sense-making, di etica applicata e di visione sistemica.

Quindi la vera prova dell’adolescenza non è il rischio di fallire, ma la capacità di crescere consapevolmente nonostante il rischio, di fare scelte difficili quando le conseguenze sono alte, di mantenere il nostro umanesimo quando la tecnologia minaccia di sottrarlo.

Se riusciremo a fare questo (nel prossimo anno, nel prossimo decennio) allora l’AI non sarà l’adolescenza della tecnologia: sarà l’inizio dell’età adulta della civiltà umana. Se non riusciremo, sarà il momento in cui il futuro ci ricorderà che quando abbiamo avuto tutte le informazioni, tutti gli strumenti, tutte le possibilità, abbiamo scelto di non fare nulla.

L’adolescenza non è solo una fase di crescita: è una finestra di plasticità, un momento in cui le scelte che facciamo diventano struttura, abitudine, destino. E le scelte che abbiamo di fronte non riguardano solo “come controllare l’AI”, ma che tipo di società vogliamo costruire. Questa è la domanda che Amodei non fa, e che dobbiamo farci noi.

Che tipo di società vogliamo essere in un mondo dove l’intelligenza non è più una prerogativa esclusivamente umana? Che spazio vogliamo lasciare alla lentezza, all’errore, all’intuizione non calcolabile, a tutto ciò che nell’umano resiste alla logica dell’ottimizzazione? Come vogliamo distribuire i benefici di questa nuova infrastruttura? Quali diritti vogliamo garantire ai cittadini di fronte a decisioni sempre più spesso delegate a sistemi che realmente non capiscono?

Sono tutte domande politiche, nel senso più nobile del termine: riguardano il modo in cui organizziamo la convivenza, distribuiamo il potere, definiamo i confini tra pubblico e privato, tra automazione e autonomia.

E sono domande che, per essere affrontate, hanno bisogno di uno sguardo diverso da quello della Silicon Valley. E che richiedono quello che viene chiamato costituzionalismo digitale: l’idea che questa nuova infrastruttura cognitiva del XXI secolo debba essere governata con gli stessi strumenti (e la stessa attenzione ai diritti fondamentali) con cui le democrazie hanno governato le infrastrutture fisiche e istituzionali del Novecento.

In questo senso, non si tratta di fermare l’innovazione, ma di incanalarla, di orientarla, di sottoporla a un controllo democratico che oggi è quasi del tutto assente.

Dario Amodei ha ragione su una cosa: il tempo sta finendo. Ma non è il tempo per “educare l’adolescente” a scadere. Ma forse il nostro per diventare adulti.

L’adolescenza della tecnologia è una scusa comoda. Ci permette di dire “vediamo l’AI come cresce”. Ma l’Intelligenza Artificiale non crescerà da sola; diventerà esattamente ciò che il sistema di incentivi economici le chiederà di essere. Se gli incentivi sono solo il profitto a breve termine e la sorveglianza, avremo un mostro, non un genio.

Superare questa fase non significa aspettare che la tecnologia si stabilizzi, ma costruire attivamente le dighe sociali, i canali economici e le fondamenta etiche per incanalare questa nuova e potenzialmente infinita potenza. Non stiamo quindi assistendo all’adolescenza di una macchina. Stiamo vivendo l’esame di maturità della specie umana.

E a differenza del film Contact, non ci saranno alieni a darci le risposte. La risposta possiamo e dobbiamo essere noi.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x