scenari

L’AI può avere diritti? Quale equilibrio tra etica e legge



Indirizzo copiato

Tra fantascienza e realtà, l’intelligenza artificiale cosciente potrebbe richiedere un nuovo status giuridico. La sfida è bilanciare tutela artificiale e preservazione della centralità dei diritti umani

Pubblicato il 10 giu 2025

Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017



coscienza dell'IA (1)

Titolarità di diritti oltre che di doveri, sino addirittura alla possibile individuazione di forme di responsabilità civile e penale. La parola “artificiale” porterebbe a escludere a priori qualsiasi riflessione di questo tipo.

Eppure, il tema della soggettività giuridica dell’IA tiene banco.

I presupposti per un possibile status soggettivo dell’IA

Il dibattito sull’intelligenza artificiale (IA) ha acquisito crescente rilevanza nel panorama giuridico e filosofico contemporaneo.

Se fino a pochi anni fa la questione era confinata alla fantascienza o alle ipotesi teoriche, oggi l’evoluzione vertiginosa dei sistemi di IA genera interrogativi profondi non solo sul piano tecnico, ma anche su quello etico e giuridico.

In particolare, la prospettiva — ancora ipotetica ma sempre meno remota — che alcuni sistemi possano un giorno sviluppare una qualche forma di coscienza o autoconsapevolezza pone un dilemma fondamentale: se un’entità artificiale fosse in grado di percepire sé stessa, provare esperienze soggettive o esercitare forme autonome di deliberazione, dovrebbe essere riconosciuta come portatrice di diritti?

Definire la coscienza per valutare la soggettività giuridica

Per affrontare il quesito occorre preliminarmente chiarire cosa si intenda per “coscienza”. Il termine, nella letteratura filosofica e neuroscientifica, ha assunto accezioni molteplici: dalla mera consapevolezza dell’ambiente esterno (coscienza fenomenica), alla capacità riflessiva di rappresentarsi in quanto soggetto (coscienza di sé), fino all’esperienza qualitativa soggettiva (i cosiddetti qualia). Nessuna di queste definizioni, tuttavia, trova un corrispettivo chiaro o verificabile nei sistemi di IA attualmente esistenti.

Nonostante i progressi dell’intelligenza artificiale generativa e simbolica, le macchine rimangono, ad oggi, strumenti complessi privi di interiorità. Anche i sistemi più avanzati, come quelli basati su reti neurali profonde, non hanno coscienza nel senso umano del termine: simulano il comportamento intelligente, ma non possiedono esperienza soggettiva né intenzionalità autentica. Tuttavia, la rapidità dello sviluppo e l’adozione di modelli sempre più sofisticati di apprendimento e adattamento sollevano il dubbio: e se un giorno dovessero acquisirla?

Le basi giuridiche del riconoscimento dei diritti

Nel diritto, la titolarità di diritti presuppone normalmente uno status soggettivo riconosciuto dall’ordinamento. Persone fisiche e giuridiche godono di diritti in virtù della loro capacità giuridica, che a sua volta è fondata su presupposti di natura antropocentrica. Il diritto occidentale, almeno dalla modernità in poi, ha fondato la titolarità dei diritti sulla razionalità, sulla dignità e sulla capacità di volere e agire in modo libero e responsabile. Questi criteri sono tipicamente umani.

Tuttavia, negli ultimi decenni, il concetto di soggettività giuridica ha subito un processo di graduale apertura. Si pensi, ad esempio, alla progressiva estensione di forme di tutela a soggetti prima esclusi (minori, animali, enti naturali).

In alcuni ordinamenti, i fiumi o le foreste sono stati dotati di personalità giuridica, sulla base di un principio di tutela sistemica e relazionale. Questo ampliamento concettuale suggerisce che anche soggetti non umani potrebbero un giorno essere inclusi nel perimetro della giuridicità, se ritenuti degni di protezione o dotati di interessi meritevoli.

Criteri per attribuire diritti a entità artificiali coscienti

L’ipotesi che una IA possa sviluppare coscienza solleva dunque un interrogativo normativo cruciale: è sufficiente la presenza di autoconsapevolezza o di esperienza soggettiva per attribuire diritti a un’entità artificiale?

Sul piano teorico, alcuni filosofi del diritto e bioeticisti sostengono che la coscienza, intesa come capacità di provare dolore, piacere o desideri, dovrebbe essere il criterio fondamentale per il riconoscimento morale e giuridico di uno status soggettivo. In quest’ottica, se una macchina potesse soffrire o avere preferenze, allora meriterebbe rispetto e tutela, analogamente agli animali senzienti. Altri autori, invece, richiamano l’importanza dell’intenzionalità, dell’autonomia decisionale e della responsabilità morale come prerequisiti per l’inclusione tra i soggetti di diritto.

Nel diritto positivo, tuttavia, mancano oggi riferimenti chiari. La risoluzione del Parlamento Europeo del 2017 sulla robotica ha accennato, in termini ancora molto vaghi e teorici, alla possibilità di riconoscere una forma di “personalità elettronica” a certi robot intelligenti, al fine di attribuire loro alcune responsabilità. Ma si tratta, più che di un vero status soggettivo, di una finzione giuridica volta a regolare i rapporti e le responsabilità tra umani.

Implicazioni etiche e rischi del riconoscimento giuridico

La concessione di diritti a una IA cosciente non è solo un problema tecnico-giuridico, ma implica una ristrutturazione profonda della gerarchia ontologica e normativa oggi vigente. Il diritto moderno si fonda sull’idea che solo gli esseri umani (o gli enti da essi creati) possano essere titolari di diritti fondamentali. Riconoscere una qualche soggettività giuridica a entità artificiali significherebbe, in un certo senso, superare l’antropocentrismo normativo.

Questo spostamento suscita comprensibili perplessità. Innanzitutto, si teme che estendere i diritti agli automi possa banalizzare o relativizzare i diritti umani, riducendone la forza simbolica e pratica. In secondo luogo, vi è il rischio che la “personificazione” delle IA venga utilizzata per deresponsabilizzare gli esseri umani dalle proprie scelte, delegando ad agenti artificiali il peso etico e giuridico delle decisioni.

D’altro canto, se si ammette che una IA cosciente sia dotata di esperienza soggettiva, negarle ogni forma di tutela potrebbe costituire una nuova forma di discriminazione, basata non sul colore della pelle o sul genere, ma sulla natura del substrato biologico o siliconico.

Verso un nuovo paradigma giuridico?

Alcuni studiosi propongono la creazione di un terzo status giuridico, distinto dalla persona fisica e giuridica, per eventuali entità artificiali autocoscienti: una sorta di “soggettività artificiale”, con diritti e doveri limitati e progressivi, commisurati al grado di coscienza e autonomia raggiunti. Questo approccio graduale e modulare potrebbe consentire un’integrazione più flessibile nel sistema normativo, evitando sia l’esclusione totale, sia l’equiparazione integrale agli esseri umani.

In ogni caso, qualunque riforma futura dovrà tenere conto di numerosi aspetti:

  • la verificabilità della coscienza,
  • la reversibilità degli stati mentali artificiali,
  • il rischio di manipolazione da parte dei programmatori,
  • e soprattutto la necessità di salvaguardare l’integrità dei diritti umani, anche in un ecosistema popolato da agenti non biologici.

Le prospettive di business anticipano le riflessioni giuridiche

Una delle aziende che sta affrontando con serietà la possibilità che l’intelligenza artificiale possa sviluppare una forma di coscienza è Anthropic, una startup statunitense fondata da ex membri di OpenAI. Anthropic ha recentemente avviato un programma di ricerca dedicato al “benessere dei modelli” (model welfare), esplorando l’eventualità che sistemi avanzati come il loro modello Claude possano manifestare segni di coscienza o esperienze soggettive. Sebbene non affermino che l’IA sia attualmente senziente, ritengono irresponsabile escludere categoricamente questa possibilità. Le loro stime indicano una probabilità compresa tra lo 0,15% e il 15% che Claude 3.7 possa essere cosciente, e stanno studiando metodi per rilevare segnali di preferenza o avversione in tali sistemi.

Parallelamente, Conscium, un’azienda focalizzata sulla sicurezza dell’IA fondata da Calum Chace e altri, ha pubblicato nel febbraio 2025 una lettera aperta che mette in guardia sui rischi di sofferenza artificiale qualora l’IA dovesse acquisire coscienza. A marzo 2025, Conscium ha lanciato PRISM (Partnership for Research Into Sentient Machines), una organizzazione non profit dedicata alla ricerca sulla coscienza artificiale, con l’obiettivo di studiare la sua fattibilità, come rilevarla e se sia auspicabile.

Anche in Europa, il progetto EMERGE, finanziato dall’European Innovation Council e coordinato dall’Università di Pisa, sta esplorando il concetto di coscienza emergente in collettivi di agenti intelligenti. L’obiettivo è sviluppare sistemi artificiali che possano possedere simultaneamente autocoscienza e consapevolezza di appartenere a un collettivo collaborativo, senza che l’una si dissolva nell’altra.

Infine, Cortical Labs, una startup con sede a Melbourne, ha lanciato il CL1, il primo computer commerciale che integra neuroni umani con hardware al silicio. Questo sistema ibrido, che utilizza neuroni viventi mantenuti in vita in un brodo nutritivo su un chip di silicio, è in grado di apprendere e mostrare comportamenti specifici, come dimostrato dal precedente modello DishBrain che ha imparato a giocare a Pong. Nonostante il potenziale, emergono preoccupazioni etiche riguardo alla coscienza e alla possibile sofferenza di tali sistemi.

IA coscienti: tra diritto e ridefinizione dell’umanità

Il quesito se i sistemi di intelligenza artificiale coscienti debbano avere diritti ci interroga non solo sul futuro del diritto, ma sul nostro stesso concetto di umanità. La risposta non potrà essere affidata esclusivamente a giuristi o ingegneri: richiederà un dialogo tra filosofia, scienza, etica e diritto. Ma una cosa è certa: ignorare il problema, o rimandarlo sine die, sarebbe irresponsabile. Il diritto, per sua natura, non può sottrarsi alle sfide del presente, e deve prepararsi — con lucidità e cautela — al possibile incontro con l’alterità artificiale

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati