intelligenza artificiale

AI, il mondo la vuole responsabile: ecco tutti i lavori in corso



Indirizzo copiato

Il fermento intorno ai temi dell’IA è altissimo e cresce la consapevolezza sui rischi man mano che gli usi dannosi si moltiplicano, non ostacolati dall’assenza di quadri regolatori adeguati globali e condivisi. Al tempo stesso permane un cauto ottimismo sulla possibilità che l’umanità riesca a rendere “responsabile” ed “etica” l’AI

Pubblicato il 9 nov 2023

Barbara Calderini

Legal Specialist – Data Protection Officer



Coltivando il verso: la sfida di scrivere poesia con GPT4

Accelerare la discussione sull’uso responsabile e la governance delle nuove tecnologie sta diventando una questione urgente per i governi di tutto il mondo, e certamente il mosaico altamente frammentato dei vari regimi normativi non facilita la convergenza dei diversi approcci.

A valle del recente AI Safety Summit, che ha coinvolto noti esponenti e rappresentanti di aziende leader nel settore dell’IA, oltre alle istituzioni politiche, facciamo il punto sul quadro globale delle regolamentazioni sull’IA e sugli ostacoli verso la definizione di norme condivise per un’intelligenza artificiale responsabile.

Regole condivise per un’IA responsabile, una strada in salita

Se da una parte la strategia cinese mira al controllo totalitario della propria società e al predominio in campo scientifico entro il 2030 e quella russa si concentra sulle applicazioni in materia di intelligence, dall’altra, negli Stati Uniti, il modello liberista crea una biforcazione tra settore pubblico e privato, in cui i colossi tecnologici della Silicon Valley puntano alla mercificazione deregolata delle opportunità tecnologiche.

Mentre il ruolo dell’Unione Europea nell’ecosistema digitale globale è in gran parte ancora da decidere.

La promessa di una società digitale europea coerente con le sue radici etiche e costituzionali, in grado di confrontarsi a livello geopolitico con i leader transatlantici e interlocutori, che molto spesso navigano in direzione “ostinata e contraria”, appare un percorso ancora piuttosto indefinito.

La strada si presenta in salita, irta e scivolosa: insidiosa anche per l’incidenza delle stesse geometrie interne dei paesi membri espressione delle velleità di chi cerca di dividere in nome del populismo e del sovranismo. Altrettanto vale per le sfide del costituzionalismo europeo alle prese con i poteri privati in ambito digitale: un tema aperto, complesso e in continua evoluzione.

Rischi dell’IA: l’allarme di Elon Musk

Elon Musk, in occasione dell’AI safety summit del Regno Unito, ha ricordato agli sviluppatori di intelligenza artificiale della Silicon Valley l’importanza di giungere quanto prima a sistemi regolatori efficaci e ha sottolineato la necessità di coinvolgere la Cina nelle regolamentazioni sull’IA. Sebbene alcuni nella Silicon Valley temono che la regolamentazione possa rallentare l’innovazione, secondo Musk, un arbitro (il governo) è comunque imprescindibile al fine di garantire la sicurezza pubblica. Ha quindi ribadito che la regolamentazione potrebbe anche essere fastidiosa, ma pur sempre necessaria. Ha dichiarato di essere d’accordo con la stragrande maggioranza delle attuali normative sebbene non coprano ancora l’intero spettro delle applicazioni di IA e ha avvertito che sarà fondamentale evitare un’accelerazione eccessiva della tecnologia senza idonee cornici normative.

Nonostante gli avvertimenti sui potenziali rischi legati all’IA, Musk è rimasto ottimista sulla tecnologia: infatti, mentre confermava la necessità dei regolamenti, ha anche asserito come l’80% delle probabilità relative all’IA avranno un impatto positivo, con il restante 20% che invece sarebbe potenzialmente idoneo ad avere effetti negativi.

Si è spinto anche oltre.

Siamo di fronte alla forza più distruttiva della storia. Arriverà un punto in cui non sarà più necessario lavorare, nel senso che potrai lavorare solo per soddisfazione personale, ma l’intelligenza artificiale farà tutto” ha sottolineato Musk, che ha continuato “Uno dei miei figli ha difficoltà a farsi degli amici e un amico dotato di intelligenza artificiale sarebbe fantastico per lui (…) una delle sfide del futuro sarà trovare un significato nella vita”.

Questo, in sintesi, è quanto emerso da un’intervista con il primo ministro britannico Rishi Sunak, tenuta al termine del Vertice sulla sicurezza dell’IA nel Regno Unito, in cui 28 paesi, tra cui Stati Uniti, UE, India, Nigeria, Emirati Arabi Uniti e Cina, hanno adottato una dichiarazione storica nota come Dichiarazione di Bletchley, sui rischi e le opportunità dell’IA di frontiera.

Nella stessa sede i principali sviluppatori di IA come Anthropic, Google DeepMind, Alibaba, Meta Platforms, Tencent e OpenAI hanno concordato di collaborare più strettamente con alcuni governi per valutare i modelli in termini di sicurezza nazionale, protezione e impatto sulla società.

L’impegno a lavorare insieme per identificare “rischi per la sicurezza di interesse condiviso” e per costruire “una comprensione scientifica condivisa e basata sull’evidenza di questi rischi … nel contesto di un approccio globale più ampio per comprendere l’impatto dell’intelligenza artificiale nelle nostre società” è stato il nucleo fondante della “joint venture” nata dalla dichiarazione di Bletchley.

La Dichiarazione di Bletchley: i punti chiave e le prime reazioni

Il summit sulla sicurezza dell’IA si è svolto a Bletchley Park, luogo storicamente significativo, un tempo epicentro degli sforzi crittografici del Regno Unito durante la Seconda guerra mondiale che ha ospitato menti brillanti come Alan Turing.

Nello specifico, la dichiarazione di Bletchley mette in guardia sui pericoli delle tecnologie di intelligenza artificiale avanzate, sottolineando la possibilità di danni catastrofici, sia intenzionali che accidentali, derivanti da tali sistemi. Non ha stabilito obiettivi politici determinati ma ha comunque indicato un percorso da fare che inizierà con una seconda riunione tra sei mesi in Corea del Sud e una terza in Francia tra un anno.

Gli sviluppi nell’ambito dell’IA sono rapidi e potrebbero portare a innovazioni importanti come diagnosticare tempestivamente certe malattie, prevedere inondazioni e altri effetti del cambiamento climatico, ma anche comportare rischi come la diffusione di disinformazione e minacce alla sicurezza nazionale, al momento fuori controllo. L’obiettivo della dichiarazione sarebbe, appunto, quello di giungere quanto prima alla definizione di standard di sicurezza globali per l’IA, con l’intento di garantire un uso della tecnologia sicuro ed etico, a beneficio dell’umanità

L’AI Safety Summit 2023 ha visto la partecipazione di noti esponenti e rappresentanti di aziende leader nel settore dell’IA, oltre alle istituzioni politiche: tra questi il vicepresidente Kamala Harris per gli USA, la premier italiana Giorgia Meloni, Sam Altman, il padre di ChatGpt, nonché Ursula von der Leyen per la Commissione Europea, presenti anche rappresentanti delle Nazioni Unite, l’Organizzazione per la cooperazione e lo sviluppo economico e l’Organizzazione mondiale della sanità e, come sappiamo, Elon Musk.

Ha presenziato anche il viceministro cinese della Scienza e della Tecnologia Wu Zhaohui che ha ribadito come la Cina sarà disposta a migliorare il dialogo internazionale sulla sicurezza dell’IA, avendo ben presenti le preoccupazioni su questioni basilari ancora irrisolte riconducibili alle black box algoritmiche alla base delle tecnologie di IA.

Opacità, imprevedibilità, vulnerabilità, fallacia: tutte caratteristiche dei sistemi di apprendimento automatico che disorientano i legislatori, specie sul fronte della responsabilità.

Le aree chiave toccate dalla Dichiarazione

Le aree chiave sulle quali ha posto l’accento la Dichiarazione sono molteplici:

  • Cooperazione internazionale: La cooperazione tra i paesi è fondamentale per affrontare le sfide e sfruttare le opportunità presentate dall’IA su scala globale. La dichiarazione enfatizza la necessità di un fronte unito nell’affrontare le complessità della sicurezza dell’IA.
  • Standard di sicurezza: Si sostiene l’importanza di istituire e rispettare standard di sicurezza elevati nella progettazione, nello sviluppo e nell’implementazione dei sistemi di IA. L’obiettivo sarà ridurre i rischi associati all’IA e garantire un approccio centrato sulla sicurezza nello sviluppo dei sistemi tecnologici.
  • IA etica: La dichiarazione mette in evidenza la necessità che le tecnologie di IA rispettino i diritti umani, la privacy e i valori democratici. Oltre ai rischi tecnici, la dichiarazione fa riferimento anche alle sfide etiche e sociali legate all’IA, come la disinformazione e la sicurezza nazionale. L’obiettivo cardine sarebbe promuovere un approccio all’IA centrato sull’essere umano.
  • Trasparenza e responsabilità: La trasparenza e la responsabilità sono viste come elementi fondamentali nella costruzione della fiducia e della comprensione del pubblico nei confronti dell’IA. Questi sono principi essenziali per l’integrazione delle tecnologie di IA nella società.
  • Condivisione della conoscenza: La dichiarazione sottolinea l’importanza della condivisione della conoscenza e della ricerca collaborativa tra le nazioni per accelerare la comprensione globale e la mitigazione dei rischi legati all’IA.
  • Rischi dell’IA avanzata: La dichiarazione mette in guardia, in modo particolare, dai rischi connessi all’IA avanzata, evidenziando il potenziale di danni gravi o catastrofici. Questi danni possono essere sia intenzionali che accidentali. Proprio questa consapevolezza dovrebbe, nelle intenzioni dei firmatari, sottolineare l’importanza di una regolamentazione e di una gestione responsabile dell’IA condivisa e coordinata. La dichiarazione sottolinea, infatti, l’importanza della cooperazione tra nazioni nell’affrontare i rischi dell’IA. Ovviamente il confronto tra approcci nazionali e internazionali è destinato a continuare.
  • Mancanza di obiettivi specifici: Come già detto, la dichiarazione, sebbene riconosca i rischi, non stabilisce obiettivi politici specifici. Tuttavia, indica che ci saranno ulteriori riunioni per affrontare tali dettagli. Intanto le aspettative in merito a futuri accordi o linee guida specifiche aumentano.
  • Ruolo della tecnologia: La presenza di importanti attori tecnologici e rappresentanti di aziende leader nel settore, ha voluto evidenziare l’interesse e l’importanza delle aziende private nell’indirizzare la sicurezza dell’IA. Queste aziende hanno invero una responsabilità significativa nel garantire che le loro tecnologie siano sicure ed etiche. Il loro ruolo e il loro contributo vengono considerati basilari.
  • Prossimi passi: La conferenza e la dichiarazione sulla sicurezza dell’IA saranno solo il preludio di ulteriori riunioni in Corea del Sud e in Francia per affrontare questioni più specifiche. Incontri futuri che dovrebbero contribuire a definire ulteriormente l’agenda internazionale per la sicurezza dell’IA.

Indipendentemente dalla situazione in cui le tensioni tra Stati Uniti, Cina ed Unione Europea dominano le relazioni internazionali, ci si chiede se la Dichiarazione di Bletchley possa offrire una possibile via per perseguire obiettivi comuni nel campo dell’intelligenza artificiale. Collaborando, condividendo conoscenze e allineando le proprie strategie, queste principali potenze economiche potranno insieme guidare lo sviluppo dell’IA verso un futuro più sicuro?

Le reazioni alla dichiarazione di Bletchley

Le reazioni alla dichiarazione di Bletchley sono state in gran parte positive, con la comunità tecnologica, i governi e i gruppi di difesa dei diritti umani che hanno accolto favorevolmente l’impegno ratificato. Tuttavia, alcune preoccupazioni sono state sollevate riguardo alla concreta attuazione degli standard e all’adesione ai principi delineati nella stessa.

Certi analisti hanno sostenuto che la conferenza sia stata più un evento simbolico che ha contribuito a far progredire di poco l’agenda sulla sicurezza nell’IA, piuttosto che una concreta azione politica coordinata. Ritengono, infatti, che siano tanti i punti presenti nelle premesse della dichiarazione in contrasto con le velleità emergenti dal contesto geopolitico in atto.

A cominciare proprio dalle ambizioni del Regno Unito di essere un leader mondiale in questo settore anziché semplicemente un organizzatore di conferenze, la cui massima ambizione potrebbe essere, tutt’al più, quella di puntare a un ruolo di mediazione e dialogo internazionale. Hanno menzionato anche l’ordine esecutivo degli Stati Uniti sull’IA e l’istituzione del proprio istituto per la sicurezza nell’IA, evidenziandone la veste di “iniziativa strategica” mirata a sottolineare la leadership americana in questo settore, a partire dalla governance dell’IA.

Stesso discorso vale per l’istituzione dell’Ufficio europeo per l’intelligenza artificiale annunciato dalla presidente della Commissione europea, Ursula von der Leyen. Un nuovo organismo per la sicurezza dell’intelligenza artificiale, che rientrerà nel nuovo quadro normativo dell’UE per l’IA. Questo ufficio avrà il compito di supervisionare i modelli di intelligenza artificiale avanzati, promuovere standard e pratiche di test e collaborare con il settore privato e i segnalatori affidabili per identificare tempestivamente i rischi. Sarà in grado di far rispettare le regole comuni in tutti i 27 Stati membri dell’UE.

Una mossa che segue le intenzioni simili discusse dal Regno Unito e dagli Stati Uniti ai quali la Von der Leyen ha già confermato l’intenzione dell’UE di cooperare con entità simili in tutto il mondo. Disponibilità che anche Gina Raimondo, Segretario al Commercio degli Stati Uniti, aveva già annunciato a sua volta riferendosi agli istituti di sicurezza dell’IA negli Stati Uniti e nel Regno Unito.

Proprio con riguardo al Regno Unito, l’incapacità di giungere ad una regolamentazione in materia di veicoli automatizzati starebbe a dimostrare “un sintomo di un problema più ampio” nella regolamentazione delle tecnologie emergenti dell’intelligenza artificiale che potrebbe portare anche alla “perdita di potenziali investimenti”. È questa la provocazione pungente lanciata dopo l’AI Safety Summit contenuta nel documento pubblicato dal Gruppo parlamentare multipartitico (APPG), visionato dal newswire indipendente MLex, sulle auto a guida autonoma nel Regno Unito. Secondo il rapporto, il Regno Unito rischierebbe seriamente di rimanere indietro rispetto ai concorrenti globali se non dimostrasse di poter approvare nuove leggi[1] per regolare i veicoli autonomi.

Il ruolo della Cina

Un discorso a parte merita, infine, la titubanza percepita a vari livelli sul ruolo della Cina quale partner istituzionale affidabile nella costituzione di standard regolatori di sicurezza condivisi.

Due influenti rapporti britannici e tedeschi[2] (ma avvertimenti simili sono stati espressi anche dal governo americano) hanno messo in guardia contro le ambizioni di dominio globale della Cina in settori chiave come veicoli elettrici, intelligenza artificiale e telecomunicazioni. I governi del Regno Unito e della Germania in modo particolare hanno più volte ribadito come la Cina cerchi il dominio tecnologico e miri all’acquisizione di proprietà intellettuale e dati in dieci settori industriali chiave, alcuni dei quali sono campi in cui questi paesi hanno proprie competenze e rivestono aree strategiche di prim’ordine. Entrambi i rapporti non lesinano dunque preoccupazioni per il coinvolgimento cinese, sottolineando come tali ambizioni potrebbero rappresentare una minaccia per la sicurezza nazionale. Gli studi sottolineano anche l’eccessiva dipendenza tecnologica dell’Occidente dalla Cina, che potrebbe mettere ulteriormente a rischio la sicurezza e la prosperità. Entrambi i documenti si chiudono con la richiesta di una celere revisione delle politiche industriali e della legislazione nazionale per affrontare tutte queste sfide.

Insomma, la tabella di marcia preannunciata a Bletchley può dirsi senza dubbio visionaria e forse persino prematura in vista di un approccio più standardizzato alla sicurezza dell’IA in tutte le nazioni; resta tuttavia innegabile l’importanza delle conferenze e dei dibattiti internazionali come il summit di Bletchley Park, non fosse altro che per facilitare la cooperazione e il dialogo tra paesi e specialmente tra Stati Uniti e Cina.

Per il resto è chiaro che il dibattito su quale possa essere l’approccio regolatorio migliore, a livello nazionale e internazionale, rimanga una questione aperta e in evoluzione.

Tra i firmatari della dichiarazione sono inclusi pionieri politici e sostenitori della cooperazione globale, nazioni leader nel settore tecnologico, potenze tecnologiche emergenti e certo, al di là di ogni ragionevole dubbio, la diversità dei paesi firmatari riflette almeno l’importanza che sembrerebbe assumere l’impegno globale per garantire la sicurezza dell’IA.

Nel frattempo, mentre a Bletchley il viceministro cinese della Scienza e della tecnologia, Wu Zhaohui, conferma la volontà della Cina di lavorare con altre nazioni sulla sicurezza e la governance dell’IAI, in Giappone i leader del G7 hanno già pubblicato nuovi principi guida e un codice di condotta per gli sviluppatori di IA, come parte del processo di cooperazione sull’intelligenza artificiale sancito a Hiroshima, per fornire protezioni per la tecnologia a livello globale.

Il Report britannico “Capabilities and risks from frontier AI”

I sistemi di intelligenza artificiale di frontiera, come i grandi modelli linguistici alla base di ChatGPT di OpenAI, Claude di Anthropic e Bard di Google, potrebbero “alterare radicalmente il modo in cui viviamo, lavoriamo e ci relazioniamo gli uni con gli altri”, avverte un rapporto del governo britannico pubblicato a ridosso dell’AI Safety Summit. E nonostante i benefici “trasformativi”, essi “comportano rischi che potrebbero minacciare la stabilità globale e minare i nostri valori”, che vanno dalla facilitazione delle frodi alla disinformazione e persino al terrorismo, si legge.

La sicurezza dell’intelligenza artificiale è una sfida sociotecnica che non può essere risolta solo con interventi tecnici”, afferma lo studio, poiché “non esistono ancora parametri universalmente concordati per misurare caratteristiche particolarmente pericolose o utili” e richiedono una mobilitazione democratica per essere concordati.

È questo a grandi linee il tenore che permea il rapporto di 45 pagine del governo britannico, introdotto dal primo ministro Rishi Sunak nella medesima circostanza in cui, in prossimità del Summit, ha voluto annunciare l’istituzione dell’AI Safety Institute del Regno Unito. Un organismo il cui compito sarà quello di “capire di cosa è capace ogni nuovo modello di IA” e assicurarsi che le autorità non debbano fare affidamento solo sulle “indicazioni di fabbrica”. Lo studio, che discute delle crescenti capacità dell’intelligenza artificiale di frontiera, definita come “un insieme di modelli di intelligenza artificiale generica altamente capaci che potrebbero eseguire una vasta gamma di compiti e competere o superare i modelli più avanzati attuali”, effettua una vera e propria analisi di impatto del rischio dei sistemi di IA avanzati, evidenziando come le tendenze sistematiche che hanno guidato la crescita recente continueranno nei prossimi anni. Ciò in particolare per la correlazione esistente tra la maggiore capacità di calcolo, più dati e algoritmi migliori e le prestazioni dell’AI di frontiera potenzialmente suscettibili di intraprendere direzioni pericolose.

Il rapporto, inoltre, mette in guardia sulla possibile concentrazione del potere di mercato nell’intelligenza artificiale, con leader che hanno un migliore accesso alle risorse e ai talenti, accelerando ulteriormente il loro progresso.

Viene anche sottolineata l’incertezza riguardo al momento in cui emergeranno le future capacità dell’IA e al contesto in cui verranno implementate, rappresentando questa una sfida significativa per legislatori, regolatori e leader del settore.

Nella sezione dedicata ai rischi, si evidenziano preoccupazioni sulla progettazione di modelli sicuri che utilizzano set di dati aperti, poiché garantire che non soddisfino richieste dannose si rivelerebbe difficile a causa dell’evoluzione della loro sicurezza nel tempo.

In generale, inoltre, i rischi potrebbero interagire tra loro, creando scenari complessi e influenzandosi reciprocamente.

Gli analisti britannici evidenziano che i potenziali rischi legati alla sfera digitale, come attacchi informatici, frodi, truffe e altri, saranno più probabili e impattanti almeno fino al 2025, con criminali che sono già all’opera per sfruttare certe tecnologie.

Rammentano anche i limiti noti dei grandi modelli linguistici esistenti, come le “allucinazioni” e i problemi di coerenza, ma restano ottimisti sul fatto che questi possano migliorare con una migliore formazione e supporto.

Il rapporto identifica tre categorie principali di rischi: danni sociali, potenziale uso improprio e problemi di perdita di controllo. Questi rischi comprendono disinformazione, perturbazioni del mercato del lavoro, parzialità o inequità, uso improprio da parte di attori ostili per condurre attacchi informatici o campagne di disinformazione e perdita di controllo dei modelli che potrebbero causare danni in modi inaspettati o ridurre il controllo umano.

Un’analisi separata sulla sicurezza e la mitigazione dei rischi avverte, infine, che sarà molto probabile che l’intelligenza artificiale generativa progredirà rapidamente nei prossimi anni, superando la regolamentazione globale; e tanto potrebbe rappresentare una minaccia estremamente significativa nei confronti della quale non sarà possibile indugiare.

E dunque, a che punto è la cooperazione internazionale in atto nella regolamentazione dell’IA?

Il quadro globale sull’IA

Guardiamo al panorama attuale.

Un’analisi dellAI Index 2023 dello Stanford Institute for Human-Centered Artificial Intelligence (HAI), sulle normative legislative di 127 paesi ha mostrato come il numero di leggi contenenti il termine “intelligenza artificiale” sia cresciuto da 1 nel 2016 a 37 nel 2022. La lettura dei resoconti parlamentari sull’IA in 81 paesi ha riportato anche che le menzioni di IA nei procedimenti legislativi globali sono cresciute di quasi 6,5 volte dal 2016.

Inoltre, l’esame qualitativo delle discussioni parlamentari in un gruppo diversificato di nazioni ha rivelato come i policymaker considerino l’IA da una vasta gamma di prospettive. Ad esempio, nel 2022, i legislatori nel Regno Unito hanno discusso dei rischi dell’automazione guidata dall’IA; quelli in Giappone hanno considerato la necessità di tutelare i diritti umani di fronte all’IA; mentre in Zambia hanno esaminato la possibilità di utilizzare l’IA per la previsione meteorologica.

Negli Stati Uniti in modo particolare sono state approvate più leggi sull’IA che mai in precedenza e anche la spesa stanziata per i sistemi di IA è in crescita.

La strategia degli Usa

Il governo federale americano ha adottato normative in materia di sicurezza cibernetica destinate ai settori critici come l’energia, i servizi finanziari e la salute. Iniziative sono state intraprese anche per promuovere la formazione nell’ambito dell’IA. L’Amministrazione Biden ha incluso specifici investimenti per l’IA nell’American Jobs Plan al fine di sviluppare e promuovere l’innovazione. Non mancano le Carte Etiche e anche l’uso di algoritmi di IA nei mercati finanziari è soggetto a normative specifiche per prevenire la manipolazione e l’abuso del mercato. Inoltre, alcune agenzie governative, come la Federal Trade Commission (FTC) e il Dipartimento di Giustizia, sono impegnate nell’esame delle implicazioni dell’IA per la concorrenza e la regolamentazione antitrust. Il National Institute of Standards and Technology (NIST) dal canto suo ha pubblicato l’Artificial Intelligence Risk Management Framework 1.0, ovvero linee guida volontarie per affrontare i rischi legati all’IA.

Il quadro normativo sull’IA è tuttavia ancora poco chiaro. Non esiste una legislazione federale completa per governare l’IA.

Tra le misure più recenti c’è l’Ordine Esecutivo emesso a fine ottobre dal presidente degli Stati Uniti Joe Biden. Un provvedimento arrivato un giorno prima che il vicepresidente Kamala Harris si recasse nel Regno Unito per partecipare al vertice globale sulla sicurezza dell’intelligenza artificiale convocato dal primo ministro britannico Rishi Sunak.

In modo particolare l’ordine esecutivo sull’IA mira a promuovere la previsione di nuovi standard per la sicurezza e la protezione nell’ambito dell’IA, con l’obiettivo dichiarato di proteggere la privacy degli americani, favorire l’equità e i diritti civili, difendere i consumatori e i lavoratori, stimolare l’innovazione, e certamente mantenere la leadership globale degli Stati Uniti nell’ambito dell’IA e altro ancora. Non c’è da stupirsi, infatti, che al momento della firma, Biden abbia menzionato i nuovi limiti per i chip IA presentati all’inizio del mese per potenziare i controlli sulle esportazioni di chip avanzati verso la Cina.

Le proposte cinesi

Per quanto riguarda la Cina, lo scorso 11 aprile è stata pubblicata una bozza di norme pensate per regolamentare lo sviluppo di prodotti generati da tecniche di Generative AI (GAI): ChatGPT e in generale tutte quelle applicazioni appartenenti alla categoria denominata Artificial Intelligence Generated Content (AIGC) in grado di produrre contenuti digitali, come immagini, musica e linguaggio naturale, attraverso modelli di AI.

La proposta cinese se implementata, segnerà la prima legge scritta al mondo specifica sull’AIGC.

È recente la dichiarazione della Cyberspace Administration of China (CAC), con la quale è stata introdotta l’iniziativa di governance globale sull’intelligenza artificiale (AI). Apertura, sicurezza, inclusività ed equità applicati allo sviluppo dell’IA, oltre al rispetto della sovranità nazionale nell’intelligenza artificiale, sono stati i concetti cardine dell’approccio regolatorio proposto da Pechino.

Parliamo di un quadro normativo composto da fonti primarie e secondarie che, inserendosi in un sistema regolatorio in costante evoluzione e già attivo sull’IA: ne fanno parte altri tre provvedimenti di spessore, la Personal Information Protection Law of the People’s Republic of China, “PIPL” entrata in vigore il 1° novembre 2021, la Cybersecurity Law, in vigore dal primo giugno 2017 e la Data Security Law approvata il 10 giugno 2021. Ne sono tasselli di rilievo anche le disposizioni sulla gestione delle raccomandazioni algoritmiche dell’Internet Information Service, le disposizioni sulla gestione della sintesi profonda dell’Internet Information Service e anche le imminenti misure per la gestione delle revisioni etiche delle attività scientifiche e tecnologiche – che costituiscono la base legale primaria e il quadro normativo per garantire la conformità nel settore AIGC). Questi i guardrail normativi applicabili alla ricerca, allo sviluppo e all’uso di prodotti con funzioni di intelligenza artificiale generativa e non. L’attenzione come già detto è in particolare concentrata sulle fasi di addestramento degli algoritmi, sulla selezione dei set di dati, sul rispetto della privacy e della proprietà intellettuale.

L’impegno Ue sulla regolamentazione

Quanto all’UE, da alcuni anni è noto l’impegno profuso nella regolamentazione dell’intelligenza artificiale; ne sono espressione il Piano coordinato sull’intelligenza artificiale, la Strategia europea sull’intelligenza artificiale, le Linee guida per un’IA degna di fiducia e il Libro bianco dell’IA. Nel 2021, nell’ambito della sua strategia digitale, l’UE ha presentato la proposta di regolamento AI Act: un quadro normativo che introduce un approccio strutturale, integrato ed orientato al rischio, sollevando importanti implicazioni socio economiche, giuridiche e geopolitiche. Nonostante alcune criticità e incertezze, l’attesa approvazione del suddetto provvedimento, ormai giunto al rush finale, rappresenterà un passo significativo per lo sviluppo dell’ecosistema europeo dell’IA.

In termini di governance, l’UE sta considerando l’istituzione di un Ufficio per l’IA con il compito di supervisionare le nuove norme sui modelli di base e sui sistemi di IA di uso generale utilizzati su scala. Ed è al vaglio anche la necessità di ottenere la preventiva autorizzazione giudiziaria per l’uso di sistemi di identificazione biometrica. Come noto, la legislazione proposta include già restrizioni sul riconoscimento facciale, come il divieto di riconoscimento delle emozioni in determinati contesti; ora la Spagna ha proposto di limitare alcune di queste restrizioni e di fornire esenzioni per le forze dell’ordine.

Proprio il fronte della sicurezza nazionale è stato oggetto di discussione, con alcune proposte per un “compromesso equilibrato” in modo che gli Stati membri possano gestire questa area in modo flessibile.

L’approccio canadese

Più o meno simile all’approccio europeo è quello scelto dal Canada dove l’Artificial Intelligence and Data Act (AIDA) è la proposta di legge che mira a proteggere i cittadini canadesi e promuovere un utilizzo responsabile dell’IA. L’AIDA si basa su una valutazione dei rischi e suddivide le applicazioni dell’IA in categorie a seconda del livello di rischio. L’obiettivo è prevenire danni e discriminazioni, senza ostacolare l’innovazione. La legge prevede l’istituzione di un Commissario per l’IA e i Dati con il compito di sviluppare e far rispettare le norme.

La strategia di Singapore

Strategia regolatoria condivisa anche da Singapore che, peraltro, ha appena annunciato di aver “armonizzato” il suo quadro di gestione del rischio IA con quello statunitense al fine di agevolare le aziende ad orientarsi nelle attività di compliance. Da ultimo, inoltre, la Infocomm Media Development Authority (IMDA) e la AI Verify Foundation di Singapore hanno lanciato il primo sandbox di valutazione per l’intelligenza artificiale generativa. Il progetto riunisce oltre dieci attori dell’ecosistema globale attraverso casi d’uso concreti per valutare prodotti basati sull’IA generativa.

Le organizzazioni internazionali

Sul versante internazionale, organizzazioni come le Nazioni Unite e l’Organizzazione Mondiale del Commercio stanno esaminando il ruolo dell’IA a livello globale attraverso specifiche iniziative come quella dell’ONU in collaborazione con l’ITU (International Telecommunication Union) per affrontare questioni legate all’IA, come la sicurezza, l’etica e la governance globale. Un impegno alla collaborazione sancito anche con il recente insediamento del nuovo Comitato per l’intelligenza artificiale voluto dalle Nazioni Unite, che riunisce circa quaranta esperti e che dovrà affiancare il Palazzo di vetro e la comunità internazionale nello sforzo di darsi regole comuni e approcci condivisi sull’AI.

Partenariati pubblici e privati

Collaborazioni tra enti pubblici e aziende private sono comuni nell’ambito dell’IA: ad esempio, il World Economic Forum ha collaborato con diverse aziende per sviluppare principi etici per l’IA. Università, istituti di ricerca e organizzazioni no profit stanno conducendo ricerche sull’IA e sulla sua regolamentazione.

Le conferenze e i summit internazionali, come la Dichiarazione di Bletchley, da tempo ormai riuniscono i leader mondiali, i ricercatori e le aziende per discutere le questioni legate all’IA e stabilire collaborazioni. La recentissima Dichiarazione di Hiroshima del G7, firmata dai leader di Canada, Francia, Germania, Giappone, Italia, Regno Unito e Stati Uniti, ha riconosciuto le opportunità e il potenziale trasformativo dell’intelligenza artificiale, sottolineando la necessità di gestire i rischi per proteggere i principi democratici, lo stato di diritto e i valori condivisi. Il documento si accompagna di altri due atti: uno che individua 11 Principi guida per i sistemi avanzati di intelligenza artificiale e un Codice di condotta internazionale. Scritti che saranno aggiornati, se necessario, per rimanere adeguati alle tecnologie in evoluzione.

In sintesi, dunque, la governance dell’IA è un campo in fermento con molte iniziative a livello nazionale e internazionale e tanto riflette la crescente consapevolezza delle sfide e delle opportunità legate alla tecnologia.

La collaborazione tra nazioni, organizzazioni e settori strategici sarà essenziale per affrontare queste sfide in modo efficace?

Conclusioni

La conversazione pubblica sull’intelligenza artificiale è attualmente attraversata da forte preoccupazione, a tratti paura isterica e paranoia.

Peraltro, il dubbio che la tecnologia si ribelli è profondamente codificato nella nostra cultura, da tempo. Dal Mito di Prometeo al potente computer Alpha 60 del film Agente Lemmy Caution: missione Alphaville, Odissea nello spazio di Stanley Kubrick, passando ovviamente per Mary Shelley e il suo romanzo Frankenstein.

Negli ultimi mesi, molti ricercatori e personaggi di spicco hanno espresso pubblicamente le loro preoccupazioni sui pericoli dei futuri sistemi di intelligenza artificiale. Questi includono due dei tre vincitori del Premio Turing, Geoffrey Hinton e Yoshua Bengio, Gary Marcus, Nando de Freitas, David Duvenaud, Dan Hendrycs e molti altri, tra cui oltre a Elon Musk, Sam Altman, amministratore delegato di OpenAI e Demis Hassabis fondatore di DeepMind.

  • L’intelligenza artificiale distruggerà l’umanità?
  • Ridurrà inesorabilmente la nostra capacità di autodeterminazione?
  • Prenderà tutti i posti di lavoro? O, invece, contribuirà alla maggiore produttività?
  • Incrementerà il divario sociale e le mire egemoniche dei governi dispotici?
  • Timori fondati o panico morale?

Il progresso tecnologico – anche quello più dirompente – non è né buono né malvagio a priori ma va sempre contestualizzato in funzione delle esigenze dell’uomo.

Con una variabile non di poco conto: l’avanzata dello sviluppo digitale, che uno lo voglia o no, è inarrestabile.

Certamente la posta in gioco è alta. Le opportunità sono profonde.

Realizzare la promessa di un’IA responsabile rimane una sfida di governance ancora irrisolta a causa di numerosi fattori: molti sono culturali, altri socio-tecnici, giuridici ed organizzativi.

Il percorso che, dalla definizione di norme etiche conduce all’allineamento degli obiettivi per un’IA responsabile con altri incentivi organizzativi, è lungo e complesso; l’introduzione di strutture di governance e team di revisione, unitamente allo sviluppo di strumenti e processi per rendere operativi e attendibili gli obiettivi di IA responsabile ne costituiscono passaggi fondamentali.

Anticipare i rischi e i potenziali danni dell’IA sono sicuramente i punti di mira da centrare.

Dove si posiziona il giusto equilibrio tra governance responsabile e rischio intelligente nel contesto dello sviluppo di tecnologie di intelligenza artificiale che hanno il potenziale per sbloccare il progresso umano?

L’alchimia regolatoria che lega principi giuridici e costituzionali da una parte e innovazione dall’altra è una formula molto complessa. E certo una delle questioni più difficili da dirimere non riguarderà tanto l’an, bensì il quantum di regolamentazione necessaria per trovare un punto di equilibrio tra interessi e culture spesso confliggenti.

Note

  1. Il nuovo quadro normativo per i veicoli automatizzati avrebbe dovuto essere adottato come parte di un disegno di legge più ampio sul “futuro dei trasporti”. Nonostante i crescenti avvertimenti da parte del settore la questione però non è stata sottoposta al parlamento
  2. Il rapporto britannico è stato pubblicato dai legislatori della commissione parlamentare per l’intelligence e la sicurezza, mentre lo studio tedesco è stato pubblicato dal Ministero degli affari esteri per conto del governo federale.

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati

Articolo 1 di 3