L’intelligenza artificiale è al centro del dibattito pubblico globale, tra entusiasmi esagerati e timori apocalittici. Eppure la questione più urgente non riguarda cosa le macchine sapranno fare, ma cosa decideremo di farne – e se saremo in tempo a farlo con consapevolezza.
Indice degli argomenti
L’intelligenza artificiale che evolve più veloce di quanto riusciamo a capire
In un momento storico in cui il dibattito pubblico sull’intelligenza artificiale oscilla tra entusiasmo salvifico e timore apocalittico, proviamo a proporre una prospettiva diversa: riportare la questione tecnologica alla sua dimensione profondamente umana. Il nodo decisivo non è ciò che le macchine potranno fare, ma ciò che noi decideremo di farne e di fare. Il verbo “fare” coniugato anche al presente è uno dei temi principali. Ciò che distingue la rivoluzione tecnologica in atto da quelle passate non è solo la potenza degli strumenti, ma la straordinaria velocità con cui evolvono. L’intelligenza artificiale migliora assai rapidamente, iterazione dopo iterazione. È questo ritmo incessante a rendere il presente diverso dal passato. Si parla di “sviluppo incontrollabile” così definito in un paper (Predictability and Surprise in LGM) pubblicato nel 2022 da Anthropic che, con una calibrata metafora, ben fa capire come stiamo affrontando il tema: “in un certo senso stiamo costruendo l’aereo mentre sta decollando”.
La domanda di Bostrom: chi governa una AI superintelligente?
Questione posta da Nick Bostrom nel suo libro “Superintelligent” già nel 2014. Siamo certi che riusciremo a governare senza problemi una AI superintelligente dopo che l’avremo costruita? Questo era il pensiero centrale del libro del filosofo americano.
Tra mito e realtà: l’AI non è né oracolo né demone
L’intelligenza artificiale è oggi al centro di una narrazione fortemente polarizzata. Da un lato viene descritta come una superintelligenza destinata a risolvere problemi strutturali dell’umanità; dall’altro come una tecnologia capace di sfuggire al controllo umano, alterando equilibri economici, sociali e politici.
Come sottolinea Pialuisa Bianco nella postfazione, entrambe queste rappresentazioni rischiano di alimentare una mitologia fuorviante. L’AI non è un oracolo né un demone, ma il risultato di uno straordinario — e per molti versi inedito — processo di innovazione tecnologica. È una tappa ulteriore di quella trasformazione che, dalla rivoluzione industriale alla rivoluzione digitale, ha progressivamente ridefinito il rapporto tra lavoro, capitale e conoscenza.
La potenza computazionale dell’AI e le sue straordinarie possibilità
Nel corso degli ultimi decenni le tecnologie digitali hanno modificato radicalmente le modalità di produzione, di comunicazione e di accesso alle informazioni. L’intelligenza artificiale rappresenta oggi un salto ulteriore in questo processo, perché introduce una velocità e una capacità di elaborazione dei dati che non hanno precedenti nella storia delle società umane. I sistemi basati sull’AI sono in grado di analizzare enormi quantità di dati, formulare previsioni, individuare correlazioni e automatizzare processi decisionali in tempi estremamente ridotti.
Questa potenza computazionale apre possibilità straordinarie in campi molto diversi: dalla medicina alla ricerca scientifica, dalla gestione delle città alla tutela ambientale, fino all’organizzazione del lavoro e alla produzione industriale. Ma proprio questa straordinaria capacità rende ancora più evidente una questione fondamentale: la tecnologia non è mai neutrale rispetto alle scelte e alle responsabilità delle società che la producono.
Dietro ogni algoritmo c’è una scelta: la tecnologia non è mai neutrale
Ogni sistema tecnologico incorpora visioni del mondo, interessi economici, modelli culturali e rapporti di potere. Dietro ogni algoritmo vi è una scelta, dietro ogni sistema automatizzato una decisione, dietro ogni innovazione una responsabilità collettiva. È su questo terreno che si collocano i contributi raccolti nel volume.
Gli scritti qui riuniti nascono lungo un arco di diversi anni e attraversano ambiti differenti — dal lavoro alla politica, dall’economia alla salute, fino alle trasformazioni ambientali e sociali — ma condividono una medesima domanda di fondo: che cosa accade quando strumenti tecnologici sempre più sofisticati incontrano le fragilità cognitive e culturali delle società contemporanee?
Il rischio non è la macchina: è perdere la capacità critica di orientarne l’uso
La questione centrale non riguarda soltanto le capacità delle macchine, ma la qualità delle decisioni umane. Viviamo immersi in un flusso continuo di informazioni che tende a confondere quantità e conoscenza, velocità e comprensione, connessione e relazione. La disponibilità immediata di dati e contenuti non coincide necessariamente con una maggiore capacità di interpretarli. In questo scenario il rischio non è semplicemente quello di delegare troppo alle tecnologie, ma di perdere progressivamente la capacità critica necessaria per orientarne l’uso. La tecnologia può amplificare le capacità umane, ma può anche amplificare le debolezze delle società che la adottano.
«Il problema siamo noi»: un invito a rovesciare la prospettiva sull’AI
Il titolo del libro, “Il problema siamo noi”, rimanda proprio a questa responsabilità. Se strumenti sempre più potenti vengono utilizzati senza una visione culturale e sociale adeguata, l’intelligenza artificiale rischia di amplificare non tanto le nostre capacità quanto le nostre debolezze: la superficialità delle decisioni, la difficoltà di distinguere tra informazione e conoscenza, la tentazione di sostituire la comprensione con scorciatoie tecnologiche.
Ma la stessa tecnologia può diventare anche uno strumento per rafforzare l’intelligenza collettiva, se inserita in contesti in cui cooperazione, responsabilità e conoscenza condivisa assumono un ruolo centrale. Come ricorda Giulio Sapelli nella prefazione, le trasformazioni tecnologiche non avvengono mai in un vuoto sociale. Esse si intrecciano sempre con mutamenti economici, geopolitici e culturali che ridefiniscono continuamente l’equilibrio delle società. “Il problema siamo noi”, dunque, non è una formula pessimistica.
È piuttosto un invito a rovesciare la prospettiva dominante: non sono le macchine a determinare il futuro delle società, ma la qualità dell’intelligenza umana che le progetta, le utilizza e le governa. In un’epoca in cui la velocità dell’innovazione sembra spesso superare la nostra capacità di comprenderla, la sfida più importante non è costruire tecnologie sempre più sofisticate, ma sviluppare una consapevolezza collettiva capace di orientarne il senso.
Perché la vera questione non è se l’intelligenza artificiale diventerà più potente, ma se l’intelligenza umana saprà diventare più consapevole, più critica e più socialmente responsabile. E anche se saremo ancora in tempo.














