Quando devo introdurre un argomento ad un corso o ad una conferenza, parto spesso da questo significativo dialogo de “Lo Hobbit” (e vedremo che Tolkien ritornerà più volte nella “saga dell’AI”):
“Bilbo: Buongiorno.
Gandalf: Che cosa vuoi dire? Mi auguri un buon giorno o vuoi dire che è un buon giorno che mi piaccia o no? O forse vuoi dire che ti senti buono in questo particolare giorno? O affermi semplicemente che questo è un giorno in cui occorre essere buoni?
Bilbo: Tutte e quattro le cose penso…”
Credo sia fondamentale definire, per quanto possibile, il significato di alcune parole, prima di addentrarsi in territori complessi.
Definizione di intelligenza e limitazioni delle intelligenze artificiali
E quello dell’Intelligenza Artificiale (IA o AI all’inglese) è certamente un territorio complesso, che evoca speranze e paure. Allora la prima parola da definire è proprio “Intelligenza”.
Intelligenza: secondo l’Enciclopedia Treccani è il “Complesso di facoltà psichiche e mentali che consentono all’uomo di pensare, comprendere o spiegare i fatti o le azioni, elaborare modelli astratti della realtà, intendere e farsi intendere dagli altri, giudicare, e lo rendono insieme capace di adattarsi a situazioni nuove e di modificare la situazione stessa quando questa presenta ostacoli all’adattamento”.
Se lo chiedeste a ChatGPT invece vi potrebbe rispondere (ma per i modelli generativi ogni risposta è diversa) che “L’intelligenza è la capacità di acquisire, comprendere e applicare conoscenze e abilità per risolvere problemi, adattarsi a nuove situazioni e raggiungere obiettivi. Include il pensiero critico, la creatività, la capacità di apprendere dall’esperienza e di gestire emozioni e relazioni. È un processo dinamico che varia tra individui e contesti, combinando elementi cognitivi, sociali ed emotivi per affrontare la complessità del mondo.”
Curiosamente ChatGPT introduce anche la gestione delle emozioni e delle relazioni. Si potrebbero citare anche le intelligenze multiple di Gardner[1], tra le quali vi è anche l’intelligenza corporea, e l’intelligenza Analitica/Pratica/Creativa di Sternberg[2].
Se prendiamo queste definizioni per buone (ma ce ne sarebbero altre), è difficile dire che i vari ChatGPT, Claude, Copilot, Gemini ecc… siano delle “intelligenze”. In particolare, ci sono almeno quattro aspetti problematici perché le intelligenze artificiali possano essere definite tali: il comprendere (citato in quasi tutte le definizioni), la presenza di emozioni, la creatività e la corporeità.
Il concetto di agente secondo Luciano Floridi
Per questo motivo il filoso Luciano Floridi sostiene che “L’IA segna il divorzio senza precedenti tra la capacità di portare a termine compiti o risolvere problemi con successo in vista di un dato obiettivo e il bisogno di essere intelligenti per farlo. Questo riuscito divorzio è diventato possibile solo negli ultimi anni, grazie a gigantesche quantità di dati, strumenti statistici molto sofisticati, enorme potenza di calcolo e alla trasformazione dei nostri contesti di vita in luoghi sempre più adatti all’IA”[3] (quello che Floridi chiama “avvolgimento”). In questo senso forse sarebbe meglio smetterla di chiamare “Intelligenza Artificiale” ciò che intelligenza non è. Del resto è una definizione del 1955[4], utile per catturare l’attenzione e destare interesse, meno per comprendere.
Se da un lato Floridi ci tranquillizza e ci toglie dall’imbarazzo di chiamare intelligenti strumenti che non lo sono, dall’altro introduce un concetto forse più utile e ancora più potente, quello di “agente”. Secondo la Treccani, agente è qualcosa o qualcuno che “agisce, che provoca un determinato effetto […]” o “Chi agisce per conto di terzi, o tratta affari altrui, o fornisce determinati servizi”. Quindi strumenti non sono necessariamente “intelligenti”, ma possono portare a termine dei compiti anche molto complessi in modo autonomo interagendo con l’ambiente in cui si trovano.
L‘ascesa degli agenti artificiali e le loro applicazioni
Non è un caso se Gartner[5] cita l’”Agentic AI” come il technology trend n. 1 per il 2025. Gli agenti non sono un concetto nuovo: si pensi ai chatbot o alle applicazioni di RPA (Robotic Process Automation). Tuttavia, i chatbot e le applicazioni di RPA sono tipologie di agenti molto limitati e specifici. Infatti, il chatbot è pensato per interagire con un umano e fornire risposte, e di per se non contiene il concetto di autonomia nel raggiungere un obiettivo e non possiede strumenti (attuatori) per intervenire sul contesto fisico. Anche gli strumenti di RPA sono agenti molto limitati perché automatizzano task estremamente semplici e ripetitivi, ma non sono in grado (almeno nelle loro applicazioni storiche) di perseguire obiettivi complessi. Ma McKinsey[6] sottolinea opportunamente come l’unione tra le AI Generative e gli agenti apra nuovi orizzonti. Possiamo infatti pensare a strumenti in grado di beneficiare della rappresentazione del mondo contenuta nei Foundation Model dell’AI generativa e in grado di interagire con l’uomo in linguaggio naturale facendo leva su un “team di agenti artificiali”, chiamato “agent system”:

Alcuni esempi sono ben noti: veicoli a guida autonoma, strumenti di automazione della fase di vendita o di supporto ai clienti, sistemi di controllo di diverso tipo (traffico, impianti industriali, processi…). Altre applicazioni sono forse meno note ma più inquietanti, come l’uso di strumenti di AI in scenari di guerra.
Implicazioni militari degli agenti artificiali
È noto, ad esempio, che l’azienda americana Palantir Technologies[7] ha avuto un ruolo fondamentale nel supportare l’Ucraina durante la guerra con la Russia[8] nella fase di analisi dei dati e di decisione dei target da colpire. Interessante come quest’azienda si rifaccia al Palantir[9], un manufatto dell’epopea di Tolkien, il cui nome significa “coloro che sorvegliano da lontano”. E il famoso mantra, così rassicurante, dello “Human in the loop”? In effetti, nell’AI Act c’è un articolo (il 14) dedicato specificamente a questo tema che recita: “High-risk AI systems shall be designed and developed in such a way, including with appropriate human-machine interface tools, that they can be effectively overseen by natural persons”. Tutto bene quindi? Non proprio. Infatti, lo stesso AI Act all’articolo 2 dice: “This Regulation shall not apply to AI systems developed or used exclusively for military purposes.” Quindi, almeno in ambito militare, non ci sono limiti specifici. Alcune applicazioni particolarmente interessanti/inquietanti sono:
- Sciami di droni[10]: gruppi di droni che collaborano in battaglia per prendere decisioni in modo autonomo ma con un obiettivo comune.
- Sistema Aegis Combat della Marina USA[11], in grado di tracciare oltre 100 bersagli e prendere decisioni in tempo reale, e sistemi Spear e Orchestrike[12] del gruppo europeo MBDA, in grado di usare l’AI per sventare attacchi missilistici.
- AI Agents per attuare o debellare attacchi cyber[13]: ormai nell’ambito della cybersecurity l’utilizzo di strumenti di AI sta diventando una pratica consolidata, sia nei sistemi di offesa che di difesa. Anche qui stiamo progressivamente spostando l’asticella, in una escalation pericolosa. A breve gli attacchi di tipo DDOS tradizionale (= bombardamento di un sito o un servizio con richieste fasulle) sembreranno obsoleti, sostituiti da agenti o sciami di agenti in grado di compiere operazioni complesse per mettere in crisi intere aziende o nazioni.
Come avrete capito, anche se molti di questi sistemi mantengono formalmente il concetto di “human in the loop”, è chiaro che l’asticella si sta sempre più spostando verso reazioni nell’ordine dei millisecondi, rendendo di fatto impossibile un intervento decisionale umano reale. Lo “human in the loop” sta diventando sempre più spesso solo un mantra consolatorio[14].
Potenziale civile degli agenti e comparazione con il mondo militare
Se il mondo militare è sempre più inquietante, non possiamo però non considerare che gli stessi strumenti applicati in ambito civile promettono incredibili passi avanti ad esempio nella scienza. La start-up Owkin[15] ad esempio, usa l’AI e gli agenti per sviluppare nuovi farmici, comprendere il funzionamento del nostro sistema immunitario e trovare terapie per diverse patologie, tra cui il cancro[16]. Un altro esempio, che colpisce in modo particolare chi ha famigliarità con i clinical trial e la loro durata, è lo sviluppo del farmaco ISM001-055 per curare la Fibrosi Polmonare Idiopatica (FPI).

Il farmaco è stato sviluppato da InSilicio[17] tramite la piattaforma pharma.ai[18] in meno di 18 mesi ed è arrivato alla prima sperimentazione sugli umani in altri 9 mesi. Curioso che anche pharma.ai attinga al mondo di Tolkien per pubblicizzare i loro prodotti:

Intelligenza artificiale e futuro degli agenti
In effetti l’AI è un po’ Palantir (=permette di vedere e prevedere il futuro) e un po’ Anello (=permette di agire, da potere). Tutti e due sono strumenti potenti e pericolosi, come Tolkien insegna.
Cosa ci riserverà il futuro prossimo e remoto è difficile dirlo. La campagna “Stop Hiring Humans” promossa a San Francisco da Artisan ha creato un notevole effetto mediatico, che fa leva sulle inquietudini più profonde di tutti noi. Se i primi bot basati sui Large Language Models ci hanno prima stupito e poi fatto sorridere con le loro “allucinazioni” e le loro ingenuità, alcune davvero memorabili, con gli “agenti” si gioca una partita diversa. Ci sarà un momento in cui gli “agenti” ci sostituiranno? Ci ruberanno il lavoro? Diventeranno strumenti di guerra inarrestabili? Saranno i nostri nuovi accompagnatori, badanti o forse amanti?
Come si vede, ci sono tante domande e poche risposte. O forse, di fronte a tanta “pseudo-intelligenza” sintetica, la vera provocazione culturale è quella di far evolvere l’intelligenza umana, come scriveva R. Guardini:
«Il mondo della tecnica e le sue forze scatenate non potranno essere dominati che da un nuovo atteggiamento che ad esse si adatti e sia loro proporzionato. L’uomo è chiamato a fornire una nuova base di intelligenza e di libertà che siano, però, affini al fatto nuovo, secondo il loro carattere, il loro stile e tutto il loro orientamento interiore. L’uomo dovrà porre il suo vivo punto di partenza, dovrà innestare la sua leva di comando là, dove nasce il nuovo evento.» (R. Guardini – Lettere dal lago di Como)
Lo sapremo fare abbastanza in fretta? Perché l’evoluzione tecnologica è esponenziale, mentre noi intelligenze biologiche ci evolviamo con una curva logaritmica, come dice la legge di Martec. E perché, di fronte a tante domande, il fatto che i nostri artefatti siano intelligenti o meno diventa irrilevante. In fondo anche noi siamo agenti, ossia entità in grado di darsi degli obiettivi, interagire con il contesto e perseguirli. Forse in un futuro non troppo lontano l’Intelligenza Artificiale (o gli agenti, intelligenti o meno) incontreranno la biologia per dare luogo a nuove entità, come in Blade Runner, sempre più difficili da distinguere dagli umani. Forse verrà un giorno in cui gli agenti saranno così evoluti che avremo bisogno anche noi di un test Voight-Kampff[19] per identificare gli agenti non umani. Ammesso che identificare e distinguere avrà ancora un senso.
Note
[1][1] Howard Gardner – Wikipedia
[2] Human intelligence – Wikipedia
[3] “Etica dell’Intelligenza artificiale” – L. Floridi – Raffaello Cortina Editore – 2022
[4] https://it.wikipedia.org/wiki/John_McCarthy
[5] https://www.gartner.com/en/articles/top-technology-trends-2025
[6] https://www.mckinsey.com/capabilities/mckinsey-digital/our-insights/why-agents-are-the-next-frontier-of-generative-ai
[7] https://www.palantir.com/about/
[8] https://time.com/6691662/ai-ukraine-war-palantir/
[9][9] https://it.wikipedia.org/wiki/Palant%C3%ADr
[10] Military Applications of AI in 2024- Sentient Digital, Inc.
[11] Sistema Aegis – Wikipedia
[12] Orchestrike: MBDA accelerates deployment of AI for SPEAR cruise missiles | Press Release | MBDA
[13] https://www.morganstanley.com/articles/ai-cybersecurity-new-era
[14] “C’è un’espressione umanamente accomodante e però anche filosoficamente ingenua che circola nei discorsi più comuni intorno alla nostra relazione -culturalmente e ideologicamente dicotomica- con le macchine. L’espressione è “human-in-the-loop” (HITL). In genere è tradotta e intesa come mantenere “l’umano nel ciclo”. C. Accoto – “Il Pianeta Latente” – Ed. Egea – 2023
[16] https://www.technologyreview.com/2024/11/13/1106750/unlocking-the-mysteries-of-complex-biological-systems-with-agentic-ai/