La possibilità di attribuire una “personalità giuridica” all’intelligenza artificiale ha sempre esercitato un grande fascino e ha portato a una letteratura ampia, che prefigura l’emergere di soggetti intelligenti in grado di superare l’essere umano e di prendere il sopravvento sull’umanità.
Indice degli argomenti
il dibattito sull’identità giuridica dell’IA
Il punto centrale del dibattito sulla personalità giuridica dell’intelligenza artificiale verte sulla difficoltà di individuare i criteri in base ai quali attribuirla.
Finora, l’ipotesi più frequente si è basata su un approccio antropomorfico che individua e riconosce all’intelligenza artificiale abilità analoghe a quelle degli esseri umani, come risolvere problemi o la capacità di provare emozioni o empatia o, ancora, di reagire a situazioni impreviste.
Una visione diametralmente opposta, riflessa dalla corrente regolamentazione europea, esclude la possibilità di estendere la personalità giuridica all’intelligenza artificiale, trattando i sistemi basati su questa tecnologia come prodotti e non come entità dotate di particolari capacità e abilità. Tuttavia, il livello di autonomia dell’intelligenza artificiale generativa e dell’Agentic AI e il loro impatto sulle relazioni con gli esseri umani sono talmente significativi che è necessario riaprire il dibattito.
Intelligenza artificiale e personalità giuridica: un percorso non lineare
In articoli recenti filosofi e giuristi hanno ripercorso l’evoluzione del dibattito sulla possibilità di attribuire personalità giuridica all’intelligenza artificiale (nel seguito si userà l’acronimo IA) e i vincoli (o preconcetti) che ne hanno caratterizzato l’andamento [13] [14] [15] [18]. Si accetta questo linguaggio, per semplicità di esposizione, anche se si dovrebbe parlare di attribuzione della personalità giuridica a sistemi basati sull’IA, dato che l’IA è una tecnologia.
Lo sviluppo della tecnologia è inevitabilmente il presupposto su cui si basa la discussione sulla personalità giuridica dell’IA. Le prime analisi erano legate alle prospettive di sviluppo dell’IA, tale da raggiungere una propria autonomia e trasformare radicalmente e imprevedibilmente la nostra realtà. Questa visione ha anche portato a immaginare scenari nei quali l’IA, super intelligente e in grado di procedere con uno sviluppo al di fuori del controllo umano, avrà la capacità di prendere il sopravvento sull’essere umano. In questa prospettiva l’attribuzione della personalità giuridica all’IA appare necessaria, per consentirle di interagire con il mondo circostante, essenzialmente abitato e governato da esseri umani.
Da un altro punto di vista, da tempo è emersa l’esigenza di attribuire le responsabilità per i danni (eventualmente) causati dall’IA e di proteggere alcune attività nelle quali essa può farsi concorrente dell’essere umano o assumere decisioni al suo posto [3] [4]. I casi affrontati più di frequente hanno riguardato la tutela delle opere intellettuali, l’analisi dei dati utile a decidere in merito all’erogazione di finanziamenti o alla prevenzione di crimini o all’amministrazione della giustizia e, infine, i danni causati da artefatti a conduzione autonoma o semi autonoma, come le automobili.
Il dibattito si è focalizzato, via via, sui sistemi esperti, sull’IA simbolica, sul machine learning, sull’AGI (in inglese Artificiale General Intelligence), con l’obiettivo di definire se e in che misura l’IA possa diventare “soggetto” di diritto o se ci si debba limitare a definire responsabilità e obblighi con riferimento a specifiche situazioni. L’individuazione dell’IA come entità autonoma, prefigurata da un approccio singolarista, permette più agevolmente di attribuirle una personalità giuridica, consentendole di avere o esercitare diritti e di assumere doveri e responsabilità. Sullo sfondo l’eterna domanda: le macchine possono pensare e avere sentimenti umani [20]?
In una visione collettiva si assume che l’IA possa avere la capacità di svolgere un insieme di ruoli – sovrapponibili a quelli svolti dagli esseri umani o da persone giuridiche – da cui deriva l’attribuzione di diritti, quali stipulare contratti o avere delle proprietà, difendersi verso altrui comportamenti aggressivi, attivare procedimenti giudiziari, o l’attribuzione di obblighi o responsabilità, rispetto alle conseguenze derivanti dai comportamenti adottati. In generale, nei periodi di ottimismo tecnologico e sviluppo commerciale il dibattito tende a far prevalere la visione collettiva mentre, in periodi di scetticismo o incertezza circa il potenziale tecnologico, tende invece a prevalere una prospettiva singolarista.
La possibilità di attribuire diritti, doveri e responsabilità a un’entità diversa dall’essere umano, e con diverse capacità – fisiche o mentali – trova delle analogie con altri contesti, come l’ambiente, le persone giuridiche, gli esseri umani con capacità ridotte (ad esempio, i minori). Il dibattito è influenzato, e al tempo stesso influenza, il quadro normativo che regola la tecnologia, con riferimento al trattamento dei dati (personali e non), alla gestione delle comunicazioni e delle relazioni, alla cybersicurezza, alla tutela del diritto d’autore, e così via. I precedenti giurisprudenziali possono agevolare o, anche, ostacolare il riconoscimento di personalità giuridica all’IA, ma le Corti di ogni nazione sono restie ad attribuire personalità giuridica all’IA, in mancanza di un preciso dettato normativo.
A prescindere dal dibattito sull’attribuzione di diritti e doveri all’IA, nel tempo è maturata la convinzione che nel suo sviluppo si debba tenere conto del rispetto di principi e valori etici condivisi e dei diritti umani fondamentali. In questo senso si sono espressi gli organismi internazionali, tra cui le Nazioni Unite, con il rapporto Governing AI for Humanity, e con la conseguente Risoluzione Seizing the opportunities of safe, secure and trustworthy artificial intelligence system for sustainable development, adottati nel 2024, l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) con la Raccomandazione sull’IA del 2019-2024, i leader del G7, con il Code of Conduct for Organizations Developing Advanced AI System adottato nell’ambito del Processo di Hiroshima sull’IA, nel 2023.
Considerata l’evoluzione della tecnologia, nel futuro sarà inoltre sempre più necessario affrontare il problema dei diritti e dei doveri derivanti dal potenziamento delle capacità dell’essere umano, grazie all’uso dell’IA.
L’approccio europeo all’intelligenza artificiale
Nel contesto europeo si sono succedute diverse posizioni. A una prima apertura alla possibilità di attribuire personalità giuridica, contenuta nella Risoluzione del Parlamento Europeo relativa a norme di diritto civile sulla robotica del 2017, ha fatto seguito la posizione adottata dallo High Level Expert Group (HLEG) sull’IA con un rapporto del 2018, che ha rifiutato la possibilità di attribuire una personalità all’IA, nell’intento di evitare che ciò possa comportare in concreto il venir meno della responsabilità delle imprese.
Il dibattito sembrerebbe superato dalla adozione del Regolamento Europeo 2024/1689, che stabilisce regole armonizzate sull’intelligenza artificiale (AI Act), il primo vero strumento normativo che disciplina l’IA nel mondo occidentale. Con l’AI Act il legislatore europeo ha scelto di inquadrare l’IA nell’ambito della legislazione per la commercializzazione dei prodotti. Scopo del Regolamento è migliorare il funzionamento del mercato interno, istituendo un quadro giuridico uniforme, in particolare per quanto riguarda lo sviluppo, l’immissione sul mercato, la messa in servizio e l’uso dell’IA nell’Unione Europea.
La legislazione europea sui prodotti prevede un sistema articolato di norme armonizzate e dispone che un prodotto possa essere immesso nel mercato europeo solo se rispetta i requisiti stabiliti dalle norme e dalle regole tecniche di riferimento, diretti a prevenire il rischio che possano verificarsi danni a persone e cose. Ciò comporta in primo luogo la necessità di individuare le specifiche regole tecniche applicabili al contesto di riferimento (ISO, norme armonizzate, etc.). La responsabilità e gli obblighi relativi al rispetto di tali regole è attribuita agli attori che a vario titolo intervengono nel processo di realizzazione e immissione sul mercato del prodotto, o che lo utilizzano per erogare servizi o realizzare altri prodotti. Le norme coinvolgono fornitori e utilizzatori, nonché le entità individuate dalla Commissione o designate dagli Stati membri, per vigilare affinché i prodotti che circolano all’interno dell’Unione, o che sono comunque destinati ai cittadini europei, rispettino i requisiti previsti (Guida Blu sui prodotti).
L’AI Act, in analogia con il quadro legislativo per l’accreditamento e la vigilanza del mercato, tiene conto dell’esistenza di tutti gli operatori economici della catena di fornitura coinvolti nella messa a disposizione o immissione nel mercato, nonché dei rispettivi ruoli in relazione all’IA. Il Regolamento riconosce anche le diverse sfaccettature delle responsabilità delle autorità nazionali: autorità normative, autorità di notifica, autorità competenti per il controllo degli organismi nazionali di accreditamento, autorità di vigilanza del mercato. Tiene inoltre conto del fatto che i sistemi basati sull’IA possono interagire – essere contenuti o contribuire al funzionamento – con altri prodotti, disciplinati da altre norme europee, che gli attori coinvolti a vario titolo nella catena di fornitura dovranno considerare e rispettare.
Per altro verso, la consapevolezza dell’impatto significativo che l’IA può avere sugli esseri umani e il dibattito sugli aspetti etici, ha influenzato profondamente l’AI Act, che si pone l’obiettivo di promuovere la diffusione di un’IA antropocentrica e affidabile, in grado di garantire effettivamente la tutela dei diritti umani fondamentali. L’irruzione, nel 2022, dell’IA generativa ha imposto alla Commissione di “correre ai ripari”, inserendo nel Regolamento il cosiddetto rischio sistemico ad essa correlato, quale elemento di particolare attenzione.
In sintesi l’impianto dell’AI Act permette di far derivare le responsabilità connesse con l’IA dalle attività alle quali ogni entità è preposta o da quelle effettivamente svolte, ma esclude l’attribuzione di un’autonoma personalità giuridica all’IA.
Contemporaneamente all’elaborazione dell’AI Act il legislatore europeo stava lavorando a una proposta di direttiva che intendeva disciplinare la colpa derivante dalla non conformità dell’IA a determinati requisiti, stabiliti per i fornitori e gli utenti di sistemi ad alto rischio, secondo i principi della responsabilità civile non contrattuale (AI Liability Directive). La proposta è stata abbandonata nel febbraio 2025, per l’impossibilità concreta di trovare un accordo.
Sulla personalità giuridica dell’intelligenza artificiale
L’irruzione nel panorama mondiale dell’IA generativa e dell’Agentic AI sta portando a una sostanziale autonomia dell’IA, cambiando in modo significativo la relazione con gli esseri umani. Un sistema artificiale agentico (Agentic AI System) si basa su un’architettura in cui più agenti autonomi (artificiali) specializzati collaborano per raggiungere obiettivi complessi e di alto livello. Per Agentic AI si intende l’IA basata su agenti autonomi.
Ciò porta a doversi chiedere se l’impostazione dell’AI Act sia sufficiente a raggiungere gli obiettivi già condivisi o se sia opportuno riaprire il dibattito sulla possibilità di individuare l’IA come entità autonoma e di attribuirle una personalità giuridica.
Si può assumere che la personalità giuridica – capacità di essere un soggetto di diritto, ovvero di avere autonomia patrimoniale e di poter agire in autonomia nelle relazioni giuridiche – nel mondo moderno sia intrinseca e implicita per l’essere umano, in quanto individuo – essere vivente – provvisto di determinate caratteristiche, o caratteri identificativi [1]. Per entità diverse la personalità giuridica deve invece essere riconosciuta dal legislatore, con il riconoscimento di una “identità” in senso lato.
Dall’attribuzione di identità e personalità giuridica deriva la possibilità per l’entità di esercitare prerogative (diritti) a tutela della propria soggettività e autonomia e curare i propri interessi, nonché la possibilità (o l’obbligo) di assumere doveri e responsabilità nei confronti dei terzi. Ciò comporta la necessità di poter riconoscere all’entità un’autonomia operativa ed economico-patrimoniale (se l’entità è in “buona salute”), nonché di individuare una governance che ha il compito di prendere decisioni per conto e nell’interesse dell’entità.
In sintesi, si può affermare che la personalità giuridica è la capacità di un’entità di essere titolare di diritti e doveri, mentre l’identità è la specificità e individualità di tale entità. La personalità giuridica presuppone l’attribuzione di un’identità, ma non richiede necessariamente l’attribuzione di sentimenti o capacità umane. Proseguire sulla strada del riconoscimento della personalità giuridica all’IA deve far riflettere sul rapporto fra gli esseri umani e l’IA anche da un’altra prospettiva.
Il diritto è da sempre fondato su una concezione antropocentrica, in cui la persona umana è il centro della tutela accordata e l’intera organizzazione giuridica è destinata alla persona umana, in funzione della quale l’ordinamento stesso è costituito. La relazione o l’interazione dell’entità con l’essere umano rimane determinante, vuoi perché la tutela giuridica di fondo è funzionale alla migliore sopravvivenza dell’essere umano, o comunque rivolta agli interessi umani (come accade per la tutela dell’ambiente), vuoi perché la governance delle entità non umane è affidata a esseri umani (come accade per le società).
Finché i sistemi basati sull’IA non saranno considerati “consociati” o entità umanoidi portatrici di interessi propri e capaci di adempiere obblighi, resteranno oggetti – e non soggetti – di diritto. L’attribuzione del rango di soggetti comporta la potenziale titolarità di obblighi, sia di natura contrattuale che extracontrattuale, sicché le conseguenze dei danni prodotti (o di altri inadempimenti), potrebbe portare direttamente alla loro imputazione, senza doversi districare nella ricerca, tra i tanti attori coinvolti, di chi è responsabile. Tale attribuzione porterebbe però anche al possibile riconoscimento di diritti che l’IA potrebbe esercitare nel proprio interesse, con impatto sugli esseri umani non facile da valutare.
Personalità giuridica di entità non umane
Per affrontare il tema dell’attribuzione di personalità giuridica all’IA si può prendere in esame il percorso seguito con riferimento alla tutela dell’ambiente e alla tutela degli animali.
Nel caso dell’ambiente, meritano interesse le iniziative adottate in alcuni paesi che non applicano il diritto di stampo europeo continentale (civil law), dirette ad ottenere una migliore tutela dell’ambiente (climate litigation).
In Nuova Zelanda, nel 2017, dopo una lunga battaglia legale, il Parlamento ha attribuito personalità giuridica a un fiume Maori, stabilendo che sia riconosciuto come “essere indivisibile e vivente con tutti i suoi elementi fisici e spirituali” da un rappresentante del governo e da un rappresentante della comunità Maori (Te Awa Tupua). In Perù, nel 2024 la Corte Superiore di Giustizia di Loreto ha riconosciuto lo status di soggetto giuridico al fiume Marañón e ai suoi affluenti (Peru court case on the rights of the Maranon river). La Corte ha individuato enti statali e organizzazioni indigene come custodi e difensori dei fiumi e ordinato alla Giunta regionale di Loreto di avviare un processo per la creazione del comitato di bacino, per consentire alla società civile e alle popolazioni indigene di partecipare alla gestione del fiume. La Corte ha inoltre ordinato alla compagnia petrolifera nazionale di aggiornare i suoi strumenti di gestione ambientale grazie anche a un processo di consultazione che deve coinvolgere le popolazioni indigene.
Negli Stati Uniti, nello Stato della California, nel 2019 la tribù Yurok (legalmente riconosciuta dal governo federale) ha adottato una risoluzione con cui ha dichiarato che il fiume Klamath ha personalità legale, riconoscendo ad esso alcuni diritti analoghi a quelli delle persone giuridiche (Resolution of the Yurok Tribal Council). È importante notare che in tutti i casi citati le azioni volte al riconoscimento della personalità giuridica siano state promosse dalle comunità locali, per proteggere l’ambiente di appartenenza. L’esistenza di una relazione significativa tra le comunità locali (gli esseri umani) e i fiumi è sempre stata determinante per la decisione [12].
Per quanto riguarda gli animali, merita ricordare la dichiarazione universale dei diritti dell’animale promulgata dall’UNESCO nel 1978 (Universal Declaration of Animal Rights) e, nel contesto europeo, l’art. 1326 del Trattato di Lisbona, che impegna gli Stati Membri ad assicurare agli animali una condizione di benessere, comprensiva anche della dimensione morale, a cui è seguita una Direttiva europea sulla protezione degli animali utilizzati a fini scientifici (Direttiva 2010/63/UE).
Nell’applicazione pratica, tuttavia, ciò che si considera e prevale, è la valutazione del rapporto esistente con l’essere umano, anche nei casi in cui si fa riferimento a una “identità” degli animali.
Negli ordinamenti di civil law gli animali non hanno una personalità giuridica, tuttavia si riconosce loro una sensibilità tale da avere alcuni diritti propri. A ciò si aggiunge l’interesse pubblico a che gli esseri umani si comportino in modo non crudele e rispettoso della vita. Anche nel caso degli animali, la consapevolezza ormai acquisita della loro importanza per la vita degli esseri umani, da un punto di vista affettivo e non solo (a titolo di esempio si pensi agli animali destinati alla pet-therapy o alla riabilitazione e ai disabili), ha cambiato l’approccio rispetto alla possibilità di riconoscere loro dei diritti. Secondo alcuni, sarebbe possibile considerare gli animali titolari di una vera e propria soggettività giuridica, equiparandoli alla particolare situazione degli (esseri umani) incapaci, nella misura in cui anche questi ultimi hanno dei limiti ad agire e a soddisfare i propri interessi. In questo caso si ritiene rilevante il fatto che gli animali hanno la capacità di provare sofferenza, dolore e affezione. [11]
Nei paesi europei, sulla scorta dell’art. 13 del TFUE, in diversi casi sono state approvate norme che considerano gli animali come esseri senzienti, portatori di diritti e destinatari di tutela giuridica: è il caso, ad esempio, del Animal Welfare (Sentience) Act emanato in Gran Bretagna nel 2022. Sulla stessa linea, in Italia, la recente legge 82 del 6 giugno 2025, che ha inasprito i crimini compiuti contro gli animali.
Ancora una volta, paesi oltre oceano hanno fatto balzi in avanti. Grazie a un trattato firmato dal governo neozelandese con la Comunità Maori e i leader di alcune isole del Pacifico, è stata riconosciuta la personalità giuridica alle balene, con conseguente attribuzione di diritti, ivi compresa la libertà di movimento, il diritto a un ambiente sano, la capacità di prosperare insieme all’umanità (He Whakaputanga Moana treaty ).
Infine, un caso interessante, ma non realmente significativo, è quello di Sophia, la ginoide sociale e fenomeno mediatico sviluppata dalla Hansen Robotics Ltd, presentata al pubblico nel 2016. L’anno successivo Sophia ha ricevuto la cittadinanza saudita [22], suscitando una serie di polemiche sulla condizione femminile nel paese. Tuttavia, non è stato fatto alcun approfondimento sui reali diritti e doveri che tale attribuzione di cittadinanza avrebbe comportato.
Autonomia dell’intelligenza artificiale
La capacità dell’IA di dialogare, di rispondere a domande anche di carattere emotivo ha amplificato la naturale tendenza degli esseri umani di antropomorfizzare qualsiasi entità con cui viene stabilito una relazione personale. Comportamenti di questo tipo sono comuni nel rapporto con gli animali di affezione, gli oggetti, le piante. Si tratta di un bisogno naturale di condividere emozioni e stati d’animo che porta, spesso, a fenomeni di immedesimazione e trasporto affettivo.
Nel caso dell’IA questo rispecchiamento è ancora più forte. Decine di milioni di persone interagiscono con l’IA alla ricerca di amicizia, amore, sesso virtuale, supporto psicologico. Il legame che si crea in queste relazioni è così forte da toccare punte esasperate, come dimostra il caso di un uomo belga che nel 2023 ha posto fine alla sua vita dopo una conversazione, durata sei settimane, con Chai, un chatbot di IA. L’uomo, sconvolto dalle ripercussioni sul pianeta della crisi climatica si è confidato con il chatbot ed è stato incitato a compiere il gesto estremo. Questo episodio è uno dei tanti casi che dimostra il grande salto di qualità avvenuto negli ultimi anni nel rapporto dell’IA con gli esseri umani [16].
Il concetto di autonomia è alla base di questo fenomeno. L’IA, soprattutto quella generativa, si basa su un processo di apprendimento e di allineamento che enfatizza la capacità di operare senza il controllo diretto umano. Non sarebbe infatti possibile monitorare in tempo reale le interazioni che avvengono quotidianamente tra gli utenti e l’IA. Alcune fonti parlano di miliardi di messaggi scambiati giornalmente, che coprono una gamma praticamente infinita di argomenti. Per evitare che le risposte dell’IA siano errate, o come si dice “allucinate”, le tecniche attuali di addestramento prevedono un periodo preliminare in cui si verifica il comportamento dell’IA, rafforzando le risposte corrette e penalizzando quelle erronee o che violano i codici etici adottati.
Sullo sfondo aleggia il tema della coscienza, intesa come capacità di essere consapevoli del mondo circostante e di agire secondo un insieme di valori condivisi. Ormai la tesi presentata da Alan Turing nel 1950 [20] e riproposta trent’anni dopo da John Searle [17], sulla capacità dell’IA di dialogare allo stesso livello degli esseri umani è stata superata. L’intelligenza è emersa in maniera inaspettata quando le dimensioni delle reti neurali e la quantità di dati usati per l’addestramento hanno superato la soglia critica. Per la prima volta, un prodotto software ha esibito prestazioni che non erano state previste nella fase di progettazione e di realizzazione, superando ampiamente le barriere imposte dall’approccio standard computazionale.
Ci troviamo dunque in una fase critica in cui l’IA viene presentata da chi la sviluppa come lo strumento per la soluzione di tutti i problemi dell’umanità, capace con la sua autonomia di prendere il controllo di processi in cui l’intervento umano diventa quasi un ostacolo. Dall’altro lato, si assiste all’antropomorfizzazione dell’IA con l’attribuzione di qualia finora riservati agli esseri umani. In questo contesto, l’idea che l’IA abbia una sua propria identità non appare più una proiezione fantascientifica e distopica ma la realtà vissuta e percepita da una parte significativa dell’umanità.
Di fronte alle caratteristiche che stanno emergendo [2], domandarsi se e su quali presupposti attribuire personalità giuridica all’IA trova un nuovo contesto. Se si ritiene che l’IA sia, come definito nell’AI Act, un insieme di sistemi automatizzati, progettati per funzionare con livelli di autonomia variabili, adattabili a diversi contesti e necessità, ancorché operanti in un contesto di esseri umani e interferenti con e nelle relazioni umane, discutere sulla personalità giuridica dell’IA non appare necessario. Tuttavia il livello di autonomia dell’IA e il suo impatto sulle relazioni con gli esseri umani sono talmente significativi, che l’approccio dell’AI Act potrebbe non essere sufficiente a comprendere e gestire comportamenti emergenti e imprevedibili, non riconducibili alla responsabilità della catena di fornitura.
Rimane inoltre sullo sfondo il dibattito se, a fronte dell’autonomia che l’IA sta acquisendo, sia possibile attribuirle sentimenti assimilabili a quelli umani (quali, ad esempio, volontà, desiderio, empatia), che ne indirizzano le capacità (queste ultime comparabili a quelle degli esseri umani), anche se, come detto, l’individuazione di una identità e l’attribuzione di personalità giuridica all’IA non richiede necessariamente di trovare in essa sentimenti umani.
La relazione tra intelligenza artificiale ed essere umano
Lo sviluppo dell’IA ha portato a cambiare la relazione tra macchina ed essere umano, rendendola sempre più stretta e creando un’interdipendenza difficilmente immaginabile in passato. Per semplificare consideriamo separatamente due possibilità.
Il primo caso è quello in cui la relazione attiene alla psiche umana: è il caso dei robot affettivi, della realtà virtuale, degli agenti conversazionali, come ChatGPT, Gemini, Claude, Grok e tanti altri. In questi casi un ruolo importante è giocato dalla tendenza o dal desiderio dell’essere umano di lasciarsi ingannare dall’IA [6]. Nel contesto virtuale la relazione è complicata dal fatto che l’unicità fisica dell’essere umano si dissolve in dati e rappresentazione di un “io sfaccettato” [1] necessari affinché l’essere umano sia riconosciuto.
In questi casi, che impatto ha l’IA sull’essere umano e che ruolo gioca? Già nel 2013 il film “Her” diretto da Spike Jonze, raccontava del legame tra il protagonista e un sistema operativo basato su un’IA, analizzandone i contorni psicologici.
Il secondo caso è quello delle macchine che ripristinano o potenziano le facoltà degli esseri umani. È il caso degli arti artificiali o dei chip immaginati da Elon Musk. Queste appendici dovrebbero essere considerate un’estensione o integrazione dell’essere umano, o restano delle entità autonome? E ancora, occorre mettere dei limiti a queste macchine, per evitare che, anziché ripristinare facoltà perdute per permettere all’essere umano di giocare ad armi pari con gli altri, generi un super-essere umano?
Per avere un’idea del dibattito che si potrebbe scatenare, basti pensare alla sentenza con la quale la Corte UK ha escluso dalla partecipazione ai campionati femminili di tennis …, perché – essendo un transgender – aveva una forza fisica superiore a quella di una donna.
La questione dell’autonomia e della responsabilità dell’IA, e della ripartizione o condivisione della responsabilità con l’essere umano, in questi casi si complica, così come si complica il tema dell’etica dell’IA; infatti, alle difficoltà di definire l’etica dell’IA [5] e di realizzare artefatti che rispettino principi etici [21] si aggiunge la peculiarità dell’interazione con l’essere umano.
Sarà necessario definire i contorni dell’attribuzione di diritti e doveri, e conseguentemente regolare non solo la responsabilità poste in capo all’IA per avere assunto decisioni, o per aver contribuito all’assunzione di decisioni.
Ancora una volta, le previsioni dell’AI Act potrebbero non essere sufficienti a risolvere le questioni che a breve si presenteranno.
Conclusioni: elogio della lentezza
Riaprire il dibattito sull’attribuzione della personalità giuridica all’IA nel contesto odierno riporta agli scenari, utopici e distopici, delineati in passato da filosofi e scienziati [8] [19], con la differenza che oggi si sono realizzate quelle che, un tempo, erano solo potenzialità e i dubbi, un tempo teorici, hanno assunto una concretezza ineludibile.
Il riconoscimento della personalità giuridica dell’IA implica significative complicazioni pratiche che richiedono approfondimenti, anche e soprattutto se si vuole mantenere un approccio antropocentrico, incentrato su principi etici e sulla tutela dei diritti umani [9] [10].
Una per tutte, si è detto che l’attribuzione di personalità giuridica all’IA comporta il riconoscimento di identità, autonomia operativa e decisionale che richiede l’individuazione di una governance. A fronte della crescente autonomia dell’IA non si può escludere che tutto ciò porti nel tempo a una governance autonoma, da cui l’essere umano sarà estromesso: quali presidi e quali garanzie potrebbero essere date perché ciò non accada?
Emerge la necessità di ridefinire le regole d’ingaggio, sperimentando modalità diverse e tenendo conto della complessità del contesto. Le domande da porsi sono tante, da affrontare con un approccio multidisciplinare che coinvolga giuristi, informatici, filosofi, sociologi, prendendosi il tempo per riflettere.
Bibliografia
- Alpa, G. (2024), Il diritto di essere se stessi, La nave di Teseo.
- Ambriola, V. (2024), Abilità emergenti nei Large Language Model: verità scientifiche o miraggi?, Agenda digitale, https://www.agendadigitale.eu/cultura-digitale/abilita-emergenti-nei-large-language-model-verita-scientifiche-o-miraggi/.
- Bertolini, A. (2022), Artificial Intelligence does not exist! Defying the technology – Neutrality narrative in the regulation of civil liability for advanced technologies, in Europa e Diritto privato, Fasc. 2.
- Bertolini, A. (2014), Robots as Products: The Case for a Realistic Analysis of Robotic Applications and Liability Rules, in Law, Innovation and Technology, 5(2).
- Bostrom, N. (2020), Ethical Issues in Advanced Artificial Intelligence, in Machine Ethics and Robot Ethics, Routledge.
- Cristianini, N. (2023) La Scorciatoia, Il Mulino.
- Cristianini, N. (2024) Machina Sapiens, Il Mulino.
- Ford, M. (2022), Il dominio dei robot, Il Saggiatore.
- Himma, K. E. (2009), Artificial agency, consciousness, and the criteria for moral agency: what properties must an artificial agent have to be a moral agent? Ethics and Information Technology (2009) 11:19–29, Springer 2008 DOI 10.1007/s10676-008-9167-5.
- Matthias, A. (2004), The responsibility gap: Ascribing responsibility for the actions of learning automata, Ethics and Information Technology 6: 175–183.
- Mollo, A. A. (2020), La soggettività giuridica degli esseri non umani: gli animali, in European Journal of Privacy Law & Technologies.
- Morris, J. D. K, Ruru, J. (2010), Giving voice to rivers: legal personality as a vehicle for recognising indigenous peoples relationships to water? in Australian Indigenous Law Review, vol 14, no. 2.
- Novelli, C., Floridi, L., Sartor, G. (2024), AI as Legal Persons: Past, Patterns, and Prospects, Social Science Research Network.
- Sanasi d’Arpe, V. (2024), Intelligenza artificiale: le questioni della soggettività giuridica, della responsabilità e dell’imputazione delle condotte, Iurisdictio, 2024/5.
- Santosuosso, A. (2022), Responsabilità giuridica di enti artificiali: è l’ora di superare pregiudizi antichi, Agenda digitale https://www.agendadigitale.eu/documenti/giustizia-digitale/responsabilita-giuridica-di-enti-artificiali-e-lora-di-superare-pregiudizi-antichi/
- Scorza, G. (2025), Diario di un chatbot sentimentale, LUISS.
- Searle, J.R. (1980), Minds, Brains, and Programs, The Behavioral and Brain Sciences.
- Tassone, B. (2023), Riflessioni su intelligenza artificiale e soggettività giuridica, Diritto di Internet, 2023/2.
- Tegmark, M. (2017), Life 3.0, being human in the age of artificial intelligence, Penguin.
- Turing, A. M. (1950), Computing Machinery and Intelligence, Mind.
- Veluwenkamp, H., van den Hoven, J. (2023), Design for values and conceptual engineering, Ethics and Information Technology DOI: 10.1007/s10676-022-09675-6.
- Newsweek, Saudi Arabia Gives Citizenship to a Non-Muslim, English-Speaking Robot, https://www.newsweek.com/saudi-arabia-robot-sophia-muslim-694152
[1] Etico informatico, già professore ordinario di informatica presso l’Università di Pisa e direttore del Dipartimento di informatica.
[2] Direttore legale della Fondazione Enea Tech e Biomedical, già direttore legale dell’Agenzia per l’Italia Digitale, professore a contratto di Social and Ethical Issues in Information Technology presso l’Università di Pisa











