Il documento

Raccomandazione Unesco sull’etica dell’IA: punti essenziali e prospettive

La Raccomandazione Unesco sull’etica dell’IA è stata approvata nel novembre 2021: il primo quadro normativo globale chiede agli Stati membri di essere applicato e di riferire sui progressi. I temi principali, il perché dello strumento, le responsabilità degli Stati, il caso social scoring

Pubblicato il 25 Gen 2022

Amedeo Santosuosso

IUSS Pavia e Dipartimento giurisprudenza UNIPV

renAIssance - intelligenza artificiale

“Il mondo ha bisogno di regole per l’Intelligenza Artificiale a beneficio dell’umanità”: con queste parole la Direttrice Generale dell’UNESCO, Audrey Azoulay, ha annunciato l’approvazione della “Raccomandazione sull’etica dell’IA” da parte della Conferenza Generale degli Stati membri nella 41ma sessione di novembre 2021.

Un documento che “stabilisce il primo quadro normativo globale, dando agli Stati la responsabilità di applicarlo. L’Unesco sosterrà i 193 Stati membri nella sua attuazione e chiederà loro di riferire regolarmente sui loro progressi e pratiche.”[1]

Il testo è stato approvato all’unanimità, all’esito di un processo durato tre anni, a partire dal 2018, e che ha avuto tre momenti principali: prima, lo “Studio preliminare su un possibile strumento di etica dell’intelligenza artificiale” (2019) ad opera di un gruppo ad hoc della Commissione mondiale per l’etica della conoscenza scientifica e della tecnologia (COMEST) dell’Unesco[2]; poi, la creazione di un gruppo di esperti ad hoc, che ha preparato la prima bozza di raccomandazione (2020) e, infine, la Sessione di negoziazione tecnica (2021), alla quale hanno partecipato i rappresentanti nominati dagli Stati membri e che ha rilasciato il testo poi rimesso alla Conferenza generale di novembre 2021[3].

Intelligenza artificiale etica: ecco l’approccio “globale” Unesco (approvato anche dalla Cina)

Raccomandazione Unesco etica IA: i temi principali

La raccomandazione, che ambisce a trarre i vantaggi dell’IA riducendo i rischi, dedica attenzione a molti aspetti, dai rapporti tra IA e espressione artistica (Punto 96) alla gender equality (Punto 8, 13, 28 e altri) e a molti altri[4]. Di seguito, i temi più ampi.

La protezione dei dati

La Raccomandazione sollecita le aziende tecnologiche e i governi a fare di più per garantire agli individui una maggiore protezione, assicurando trasparenza e controllo sui loro dati personali. Tutti gli individui dovrebbero essere in grado di accedere o anche cancellare le registrazioni dei loro dati personali. Gli organismi di regolamentazione di tutto il mondo sono chiamati a far rispettare questi diritti.

Il divieto del social scoring e della sorveglianza di massa

È vietato esplicitamente l’uso di sistemi di IA per il social scoring[5] e la sorveglianza di massa, che violano i diritti umani e le libertà fondamentali (si veda avanti).

La protezione dell’ambiente

Gli AI actors [6] sono chiamati a garantire che l’IA diventi uno strumento importante nella lotta contro il cambiamento climatico e nell’affrontare le questioni ambientali. Inoltre i governi sono sollecitati a valutare l’impatto ambientale diretto e indiretto dei sistemi di IA, in tutto il loro ciclo di vita, come l’impronta di carbonio, il consumo di energia e l’impatto ambientale dell’estrazione delle materie prime per sostenere la produzione delle tecnologie AI. E se ci sono sproporzionati impatti negativi dei sistemi di AI sull’ambiente, la raccomandazione indica che essi non devono essere utilizzati.

Un efficiente sistema di monitoraggio e valutazione

La raccomandazione pone attenzione agli strumenti che garantiranno la sua attuazione. L’Ethical Impact Assessment ha lo scopo di aiutare i Paesi e le aziende che sviluppano e impiegano sistemi di IA a valutare l’impatto che questi hanno sugli individui, sulla società e sull’ambiente. La Readiness Assessment Methodology aiuta gli Stati membri a valutare quanto sono pronti in termini di infrastrutture giuridiche e tecniche. Questo strumento migliora la capacità istituzionale dei Paesi e a raccomandare misure appropriate da adottare per garantire che l’etica sia attuata nella pratica. Inoltre, la raccomandazione incoraggia gli Stati membri a considerare l’istituzione di un ufficio indipendente per l’etica dell’IA (Independent AI Ethics Officer) o di altro meccanismo per supervisionare gli sforzi di monitoraggio continuo.

L’ispirazione è chiara: “Le decisioni che hanno un impatto su milioni di persone dovrebbero essere eque, trasparenti e contestabili. Queste nuove tecnologie devono aiutarci ad affrontare le grandi sfide del nostro mondo di oggi, come l’aumento delle disuguaglianze e la crisi ambientale, e non approfondirle”[7].

Raccomandazione Unesco etica IA: il perché dello strumento

Audrey Azoulay, convinta e forte ispiratrice di tutta l’iniziativa, ha scelto con la massima accuratezza le parole: “la Raccomandazione fornisce un quadro normativo e globale, rivolto agli Stati membri ai quali è lasciata la responsabilità di applicarlo e di riferire periodicamente”.

Che una Raccomandazione, per giunta intitolata “sull’etica dell’IA”, fornisca un quadro normativo è affermazione che richiede qualche precisazione e fughi il dubbio sul campo in cui ci si muove: si sta parlando di diritto o di etica o di etica normativa? La questione merita qualche attenzione perché ne va della portata effettiva e dell’impatto che può realmente avere il documento.

In termini generali, si può dire che le statuizioni di una raccomandazione hanno un peso superiore a quelle di una mera dichiarazione, perché questa seconda ha un valore che, per dirla con il lessico degli atti linguistici, è meramente locutorio, cioè quello di un enunciato significativo (meaningful utterance): una dichiarazione può anche indicare l’intenzione di compiere un atto, ma rimane confinata nella sfera di chi la pronuncia e può coinvolgere gli altri che ricevono il messaggio solo ove essi ne condividano il contenuto e riconoscano l’alto valore sociale o morale di chi ha dichiarato.

Invece, una raccomandazione è, sempre in termini generali, qualcosa di più. È pur sempre un enunciato linguistico, ma, ancora secondo il lessico degli atti linguistici, esprime un atteggiamento con una certa funzione o “forza” (chiamata forza illocutoria). È un enunciato che tende a uno scopo comunicativo. L’enunciato ha la forza di un’azione, come può essere una promessa, o un comando.

Nel lessico tecnico-giuridico delle relazioni internazionali, questa distinzione prende coloriture particolari.

Per le Nazioni Unite, e per la Costituzione dell’Unesco la distinzione tra i vari strumenti giuridici vede tre tipologie: convenzioni, raccomandazioni e dichiarazioni. Escluse le prime, che appartengono al genere dei trattati, ovvero espressioni negoziali vincolanti per i firmatari, le raccomandazioni e le dichiarazioni si distinguono solo per alcuni aspetti.

Le raccomandazioni sono strumenti in cui “la Conferenza generale formula principi e norme per la regolamentazione internazionale di qualsiasi questione particolare e invita gli Stati membri a prendere qualsiasi misura legislativa o di altro tipo che possa essere richiesta in conformità con la pratica costituzionale di ciascuno Stato e la natura della questione in esame per applicare i principi e le norme nei loro rispettivi territori”[8]. Si tratta, quindi, di norme che non sono soggette a ratifica, ma che gli Stati membri sono invitati ad applicare.

In altri termini, le raccomandazioni, in quanto emanate dall’organo supremo dell’organizzazione, sono dotate di grande autorità e sono destinate a influenzare lo sviluppo delle leggi e delle pratiche nazionali. Esse, pur non soggette a ratifica, per il semplice fatto di essere state adottate comportano alcuni obblighi per gli Stati membri: devono essere presentate alle autorità nazionali competenti, che possono decidere di recepirle totalmente o parzialmente, e che devono rendere conto delle misure adottate alla Conferenza generale, inviando rapporti con le cadenze stabilite dalla stessa Conferenza (art. 17).

Le dichiarazioni sono, secondo la Costituzione Unesco, “un altro mezzo per definire le norme”. Esse, come le raccomandazioni, non sono soggette a ratifica, non sono vincolanti ed enunciano “principi universali ai quali la comunità degli Stati vuole attribuire la massima autorità possibile e garantire il più ampio sostegno possibile”. Nel caso delle dichiarazioni l’accento non è, dunque, sulle misure applicative, ma sulla solennità dello strumento, sul fatto che viene utilizzato in “rare occasioni” e per principi di grande e duratura importanza (si pensi alla “Dichiarazione universale dei diritti umani”).

In conclusione, tra raccomandazioni e dichiarazioni non vi è una gerarchia formale e generale[9]. È rimessa alla Conferenza generale la scelta del mezzo in relazione al contenuto del documento e all’obiettivo che si vuole raggiungere. Sono entrambi mezzi per definire regole e diritti, anche se il loro valore giuridico può variare[10].

Per districarsi in queste distinzioni, possono, alla fine, tornare ancora utili le distinzioni della teoria degli atti linguistici dalla quale siamo partiti: quello che fa la differenza è la posizione di chi emette un enunciato linguistico (una dichiarazione solenne può essere fatta solo da un’istituzione o da un individuo che abbia una grande autorità personale), dall’intenzione di chi lo emette (se vuole presentarsi come un faro che indica la via con la sua sola luce – come nelle dichiarazioni- o se vuole stabilire una relazione con caratteri di obbligatorietà) e dall’effetto che produce nel destinatario (obbligo di adeguarsi -nel caso di convenzioni/trattati- o di riferire periodicamente -come nelle raccomandazioni).

Nel caso della Raccomandazione sull’IA questi tre aspetti (posizione, intenzione ed effetto perseguito) sono stati accuratamente esaminati nello “Studio preliminare su un possibile strumento…”, che la Conferenza generale del novembre 2019 ha approvato, conferendo così a quello “Studio” il valore di posizione dell’intera istituzione.

Il gruppo di lavoro ha soppesato i pro e i contro dei due strumenti normativi (dichiarazioni e raccomandazioni) e ha colto, in modo interessante, la particolarità del momento (2018). Un momento in cui la moltiplicazione di documenti e dichiarazioni internazionali sull’IA aveva ormai raggiunto una dimensione assai importante[11]. Una dichiarazione dell’Unesco avrebbe aggiunto una voce che, però, rischiava di perdersi in quella cacofonia e di non essere percepita come importante dagli Stati membri[12]. Il gruppo di lavoro ha, invece, colto l’emergere a livello internazionale, europeo e nel contesto politico nazionale di diversi Paesi, di un movimento verso forme di regolamentazione dell’IA. Ha ritenuto che il movimento di regolamentazione digitale, iniziato dall’Unione europea sulla protezione dei dati personali, potesse essere esteso a livello internazionale nel campo dell’IA.

Considerato quindi che gli strumenti erano ancora nelle loro prime fasi di sviluppo (la proposta di Regolamento europeo sarebbe intervenuta tre anni dopo), l’Unesco ha valutato di potersi distinguere sia in termini di contenuto etico, sia per la capacità di proposta agli Stati membri. L’Unesco ha ritenuto di essere in una posizione unica per fornire una prospettiva multidisciplinare e universale per lo sviluppo di una Raccomandazione sull’etica dell’IA, riunendo Paesi sviluppati e in via di sviluppo, prospettive culturali e morali diverse, in un processo internazionale per elaborare una serie completa di principi e proposte per l’etica dell’IA.

In conclusione, la posizione dell’ente che ha emesso la Raccomandazione (Unesco), la sua collocazione nel contesto internazionale, la sua intenzione e il tipo di rapporto che ha creato con i diversi Stati indicano chiaramente che siamo in presenza di uno strumento normativo, dotato di un solido fondamento etico.

Raccomandazione Unesco etica IA: la visione globale

L’avere un carattere globale[13] fa la differenza rispetto a tutti gli altri tentativi normativi in materia.

Lo sguardo globale della Raccomandazione Unesco, che riguarda certamente la sua estensione spaziale, ha però importanti effetti anche sul contenuto delle sue statuizioni. Per fare un esempio, se lo AI Act europeo può, in nome del principio di non proliferazione legislativa europea, fare riferimento alla rete normativa EU di cui si vuole sfruttare ogni possibilità d’applicazione anche nel campo dell’IA, la Raccomandazione UNESCO può contare solo (!) sul riferimento ai diritti umani nelle varie e numerose accezioni che hanno assunto.

In più, parlare a tutto il mondo impone una visione che sia non solo economica, ma anche, e forse soprattutto, culturale. Come ha sottolineato Sheila Jasanoff in un intervento molto interessante proprio sul ruolo dell’Unesco a proposito di IA[14], non bisogna cadere nell’errore di pensare che esista un solo tipo di intelligenza, che possa identificarsi con o corrispondere (per difetto o per eccesso) all’IA, perché nell’esperienza umana e sociale ne sono state descritte varie altre, come per esempio, l’intelligenza sociale. Parlare al mondo significa anche ascoltare le voci ai margini e significa saper cogliere le differenze delle culture e dei contesti nei quali le tecniche di IA vanno a inserirsi, se si tratta di culture autoritarie o aperte, moderne o premoderne, e altro. E i risultati possono essere molto diversi.

Le diversità linguistiche fanno parte di questi contesti culturali e sono tanto più importanti se si pensa che molti dei sistemi tecnici che vengono usati sono originati in contesti di lingua inglese e sono stati pensati per un uso che parta da quella lingua. È degno di particolare nota il Punto 28, dove si può leggere che “member States should work to promote inclusive access for all, including local communities, to AI systems with locally relevant content and services, and with respect for multilingualism and cultural diversity”.

Tutto ciò ha avuto effetti sul negoziato tecnico e politico (la terza fase), che può ben dirsi essere stato un esercizio di cosmopolitan ethics e che, per ammissione diffusa, ha costituito un’esperienza di negoziato non riconducibile ad altre esperienze, condotte in ambiti diversi, certamente più ristretti ed omogenei.

Raccomandazione Unesco etica IA: le responsabilità degli Stati membri

Come indicato da Audrey Azoulay, la Raccomandazione Unesco sull’etica dell’IA dà agli Stati “la responsabilità di applicarlo [il quadro normativo] al loro livello”. Parole che certo non stupiscono, visto che l’Unesco, in quanto agenzia dell’ONU, ha come interlocutori gli Stati membri e non i soggetti privati operanti nel campo dell’IA.

Tuttavia, nel testo della Raccomandazione una nozione chiave è quella di AI actor, definito come “any actor involved in at least one stage of the Al System life cycle, and can refer both to natural and legal persons, such as researchers, programmers, engineers, data scientists, end-users, business enterprises, universities and public and private entities, among others.”

Ora, dal momento che è evidente che gli AI actors, così definiti (in modo peraltro condivisibile), vanno oltre la sfera statuale, la conseguenza che se ne potrebbe trarre è che la Raccomandazione pone a carico degli Stati membri l’obbligo di vigilare su tali attori e di intervenire con misure appropriate perché essi rispettino le indicazioni normative, proteggendo così i cittadini dai grandi monopolisti e dai possibili abusi.

Ma questa è solo una parte della storia, perché in molti casi sono proprio gli Stati nazionali e altre entità pubbliche (come gli organi di polizia) a costituire la fonte di preoccupazione per la violazione della dignità e dei diritti umani, a causa dell’uso massiccio di controllo della popolazione con tecniche di IA. In tal caso sono gli stessi Stati a essere destinatari di un doppio comando: quello di vigilare sugli AI actors privati e contemporaneamente su loro stessi, in quanto AI actors pubblici.

Un altro aspetto, che aiuta a comprendere il valore giuridico, riguarda il supporto che l’Unesco offre ai suoi 193 Stati membri nell’attuazione (cosa che è particolarmente rilevante per i Paesi in via di sviluppo) e la richiesta di riferire periodicamente sui progressi e sulle pratiche (cosa che invece può riguardare anche i paesi sviluppati, come è evidente nel caso sorveglianza di massa e del social scoring, vedi il prossimo paragrafo).

La delibera della Conferenza generale stabilisce delle modalità stringenti, onde evitare che le previsioni della Raccomandazione restino solo sulla carta, fissando per gli Stati l’obbligo di Report ogni quattro anni e impegnando il Direttore generale a riferire sullo stato di avanzamento dell’applicazione della Raccomandazione in occasione della 43ma sessione della Conferenza generale (sono i punti 4 e 6 dell’Item 8.2)[15].

Raccomandazione Unesco etica IA: il caso della sorveglianza di massa e del social scoring

Significativo è il caso della sorveglianza di massa e del social scoring, che il paragrafo 26 (all’interno del titolo Proportionality and Do No Harm) vieta esplicitamente (su emendamento aggiuntivo italiano): “AI systems should not be used for social scoring or mass surveillance purposes”. In questo caso è chiaro che, nella maggior parte dei casi, sono proprio entità pubbliche a usare quelle tecniche e che, quindi, rientrano nella categoria degli AI actors, destinatari di quei divieti.

La questione è fondamentale per evitare possibili atteggiamenti elusivi da parte degli Stati membri.

Da un punto di vista tecnico i sistemi Real time sono pensati per fornire risultati in tempo reale su flussi ‘video live’ provenienti da telecamere, posizionate in alcune aree pubbliche delle città. I dati acquisiti vengono, così, analizzati e confrontati mediante un algoritmo di riconoscimento facciale con i dati presenti nella c.d. ‘watch list’ a disposizione dell’autorità pubblica[16].

Sono coinvolti non solo Paesi come la Cina, che ha fama di fare ampio uso di queste tecniche, ma anche i paesi democratici che sulla sorveglianza Real time mostrano non poche incertezze o… tentazioni[17]. Anche l’Italia aveva preparato il suo sistema Real Time (SARI), che, però, il Garante per la protezione dei dati personali ha bocciato in modo netto per la sua contrarietà alle norme esistenti con un parere del 25 marzo 2021.

In generale, è in aumento la pressione per interventi normativi, che però non sempre sono sufficientemente precisi. Per esempio, la proposta di Regolamento Europeo, Artificial Intelligence Act (21 aprile 2021), afferma che l’identificazione biometrica remota “in tempo reale” delle persone fisiche in spazi accessibili al pubblico è attività particolarmente invasiva dei diritti e delle libertà delle persone interessate, e, in particolare, dell’esercizio della libertà di riunione e di altri diritti fondamentali (Punto 18). Tuttavia, quando passa a stabilire un esplicito divieto (Articolo 5, “Pratiche di intelligenza artificiale vietate”) formula alcune eccezioni, come “la prevenzione di una minaccia specifica, sostanziale e imminente per la vita o l’incolumità fisica delle persone fisiche o di un attacco terroristico”, usando espressioni generiche nelle quali vi è da temere che possano rientrare… troppe cose.

Molto più precisa e stringente la Risoluzione del Parlamento europeo del 6 ottobre 2021 su l’intelligenza artificiale nel diritto penale e il suo utilizzo da parte delle autorità di polizia e giudiziarie in ambito penale[18], che prevede forme di registrazione e controllo pubblico sulle attività svolte.

Va segnalata infine un’iniziativa di cittadini europei dal titolo «Iniziativa della società civile per il divieto delle pratiche di sorveglianza biometrica di massa»[19]. I promotori esortano “la Commissione europea a disciplinare rigorosamente l’uso delle tecnologie biometriche onde evitare interferenze indebite con i diritti fondamentali”.

La Raccomandazione Unesco, con il peso normativo, leggero se misurato sulla scala della vincolatività, ma molto ampio se visto nel suo carattere globale, può essere un catalizzatore importante per iniziative che possano legare situazioni, Paesi e movimenti culturali e di opinione pubblica molto diversi l’uno dall’altro.

Raccomandazione Unesco etica IA: punti critici e prospettive

Messi in evidenza il valore e l’importanza della Raccomandazione Unesco sull’etica dell’IA, ci si può chiedere quali siano gli aspetti critici. Ve ne possono essere vari. Probabilmente il testo avrebbe potuto essere più breve e asciutto, mentre avrebbero potuto essere affrontate con più precisione alcune questioni, come quella della possibilità che ai sistemi di IA abbiano una qualche forma di soggettività giuridica, che è stata esclusa in modo indiscriminato (che pure in alcuni casi potrebbe costituire una garanzia per gli umani). Ma sono dettagli.

In realtà il punto di maggiore criticità è, ora, costituito dalla effettività della promozione della Raccomandazione, sollecitando nelle forme più appropriate i soggetti pubblici e privati. L’impegno dell’UNESCO in tale direzione sembra essere molto forte, e il tempo ci dirà.

Un aspetto, a mio avviso, sicuramente positivo è costituito dal metodo e dall’approccio. Aver puntato sul concetto di AI actor, quale destinatario degli obblighi, ha consentito di superare le secche nelle quali i sostenitori della non interferenza nella sovranità statuale avrebbero potuto portare l’intero impianto (e tentativi in tal senso vi sono stati nella negoziazione!).

Avere, invece, puntato su un destinatario che si potrebbe dire funzionale (l’AI actor come privato da controllare o come istituzione statuale che deve adeguarsi) ha consentito di guadagnare una prospettiva culturale di grande interesse, che potrà avere sviluppi anche in altri settori.

____________________________________________________________________________

Note

  1. Audrey Azoulay: “The world needs rules for artificial intelligence to benefit humanity. The Recommendation on the ethics of AI is a major answer. It sets the first global normative framework while giving States the responsibility to apply it at their level. UNESCO will support its 193 Member States in its implementation and ask them to report regularly on their progress and practices”; https://en.unesco.org/news/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence . Nella stessa pagina si trova anche l’espressione “AI cannot be a no law zone”.
  2. UNESCO Preliminary study on the technical and legal aspects relating to the desirability of a standard-setting instrument on the ethics of artificial intelligence – UNESCO Digital Library: https://unesdoc.unesco.org/ark:/48223/pf0000367422
  3. L’autore di questo articolo ha partecipato ai lavori dell’extended working group del COMEST, autore dello Studio preliminare consegnato il 2019, ed è, poi, stato rappresentante del Governo italiano nella negoziazione nell’Intergovernmental meeting of Experts tra aprile e giugno 2021.
  4. Questa sintesi in quattro punti è tratta dal testo pubblicato sul sito web istituzionale e si può ritenere che rifletta l’intenzione dell’istituzione: https://en.unesco.org/news/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence
  5. Per social scoring si intendono quei sistemi che assegnano ad ogni cittadino un punteggio sulla base di informazioni riguardanti la condizione economica e sociale e che sono processate da sistemi di IA.
  6. Per la definizione e per il rapporto tra pubblico e privato, si veda avanti.
  7. Gabriela Ramos (Assistant Director-General for Social and Human Sciences): “Decisions impacting millions of people should be fair, transparent and contestable. These new technologies must help us address the major challenges in our world today, such as increased inequalities and the environmental crisis, and not deepening them”; https://en.unesco.org/news/unesco-member-states-adopt-first-ever-global-agreement-ethics-artificial-intelligence .
  8. “General introduction to the standard-setting instruments of UNESCO”, da cui sono tratte le citazioni di questo paragrafo (disponibile presso http://portal.unesco.org/en/ev.php-URL_ID=23772&URL_DO=DO_TOPIC&URL_SECTION=201.html#name=1 )
  9. “it should not be deduced […] that any one of these various instruments is superior to the others. It is simply that their functions are essentially different; moreover, in the case of declarations, stress is laid on moral authority” (General introduction to the standard-setting instruments of UNESCO), disponibile presso http://portal.unesco.org/en/ev.php-URL_ID=23772&URL_DO=DO_TOPIC&URL_SECTION=201.html#name=1
  10. E qui è inevitabile ricordare come il termine diritto/right ha, nella cultura e letteratura giuridica di lingua inglese, una connotazione diversa da quella esistente in paesi come il nostro, dove diritto indica soltanto le posizioni con fondamento giuridico, tanto che normalmente un diritto non lo si caratterizza con l’aggettivo legale, perché se non fosse legale non sarebbe neanche un diritto. Mentre, secondo la letteratura di lingua inglese, nella macrocategoria dei rights si possono distinguere moral (rights) e legal (rights). Si vedano, tra i tanti, Campbell, Kenneth, “Legal Rights”, The Stanford Encyclopedia of Philosophy (Fall 2021 Edition), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/fall2021/entries/legal-rights/ ; Nickel, James, “Human Rights”, The Stanford Encyclopedia of Philosophy (Fall 2021 Edition), Edward N. Zalta (ed.), URL = https://plato.stanford.edu/archives/fall2021/entries/rights-human/
  11. Montreal Declaration for a Responsible Development of AI (2018), the Toronto Declaration: Protecting the right to equality and non-discrimination in machine learning systems (Amnesty International and Access Now, 2018), the Declaration of the Future of Life Institute on the Asilomar AI Principles (Future of Life Institute, 2017); the Ethics Guidelines for Trustworthy AI from the European Commission’s High-Level Expert Group on AI; the second document of the IEEE (currently under consultation) on Ethically Aligned Design: A Vision for Prioritizing Human Well-being with Autonomous and Intelligent Systems,
  12. Al punto 101 si può leggere testualmente: “The question is as follows: would a UNESCO Declaration on the Ethics of AI allow this heteronomy to be federated under a few guiding principles that would respond in a comprehensive manner to the ethical issues of AI, as well as to UNESCO’s specific concerns in the fields of education, culture, science and communication? The Working Group believes that this could be possible, but with the risk that during the process leading to the Declaration, Member States would essentially agree on some general, abstract and non-binding principles, since it is a Declaration. In such a perspective, would a UNESCO Declaration on the Ethics of AI bring added value vis-a-vis other ongoing declarations and initiatives? It is questionable that such instrument will immediately establish itself as an international reference, in a context of competition between ethical frameworks, at a time when technologies are emerging and their uses not yet stabilized.”
  13. https://en.unesco.org/artificial-intelligence/ethics . Va ricordato comunque che gli SU e Israele sono attualmente fuori dall’UNESCO.
  14. “Shaping the Future of AI through Cultural Diversity”, 2021: https://www.youtube.com/watch?v=Rdp6hQXVpqM
  15. Il punto 3 “Recommends that Member States apply on a voluntary basis the provisions of this Recommendation by taking appropriate steps, including whatever legislative or other measures may be required, in conformity with the constitutional practice and governing structures of each State, to give effect within their jurisdictions to the principles and norms of the Recommendation in conformity with international law, including international human rights law”
  16. In materia si veda Elettra Currao, “Il riconoscimento facciale e i diritti fondamentali: quale equilibrio?”, Diritto penale e uomo, 5, 2021 (https://dirittopenaleuomo.org/contributi_dpu/il-riconoscimento-facciale-e-i-diritti-fondamentali-quale-equilibrio/ )
  17. Si veda ancora il contributo di Elettra Currao, cit.
  18. https://www.europarl.europa.eu/doceo/document/TA-9-2021-0405_IT.html
  19. La cui registrazione è stata approvata dalla Commissione europea. Decisione di Esecuzione (Ue) 2021/27 della Commissione del 7 gennaio 2021: https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A32021D0027

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Video
Analisi
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2