etica e AI

Intelligenza artificiale, le linee guida europee: pro e contro dell’approccio ue

La Ue sceglie un approccio “umano-centrico” allo sviluppo dell’intelligenza artificiale, mettendone l’affidabilità al centro e così stabilendo alcuni principi; ma nelle sue linee guida parte da un presupposto non verificato, ossia che i benefici dell’AI superano i rischi. Vediamo perché non è così

14 Gen 2019
Intelligenza artificiale, una task force a supporto della crisi pandemica

Le “linee guida di tipo etico sull’intelligenza artificiale” presentate dalla Commissione europea delineano gli elementi per la creazione di una intelligenza artificiale “affidabile” (Trustworthy AI), con la convinzione che la diffusione della tecnologia potrà avvenire solo sulla base, appunto, della affidabilità.

Nel documento, ancora in bozza, pubblicato il 18 dicembre 2018 e in fase di consultazione pubblica sono stati definiti i principi, i requisiti e i metodi tecnici e non tecnici per creare sistemi di intelligenza artificiale fidati e valutarne l’attendibilità. Un lavoro encomiabile, che mette l’etica al centro dello sviluppo dei sistemi di AI, ma che parte da un assunto decisamente contraddittorio, e cioè: “i benefici dell’AI superano i suoi rischi”.

Tale affermazione, non comprovata, è tra l’altro smentita nello stesso documento della Ue e non potrebbe essere altrimenti viste le incognite celate, ad esempio, nei software AI che consentono il riconoscimento facciale, in quelli che fingono con successo di essere umani, come ad esempio gli assistenti vocali, negli algoritmi di profilazione con finalità di scoring, nei sistemi “laws” (i robot killer).

Di seguito una disamina del documento e un’analisi delle sue criticità.

Intelligenza artificiale, l’approccio “umano-centrico” della Ue

Nell’aprile del 2018 la Commissione Europea ha istituito un gruppo di studio sull’intelligenza artificiale, composto da 52 esperti provenienti dal mondo accademico, imprenditoriale e della società civile (AI HLEG), e lo ha incaricato di redigere due documenti: un primo documento contenente “linee guida di tipo etico sull’intelligenza artificiale” e un secondo documento di “raccomandazioni politiche e di investimento”.

WHITEPAPER
Conosci tutti gli strumenti digitali per un Employee Engagement di valore? Scoprili ora!
ERP
Risorse Umane/Organizzazione

Il primo documento si presenta con un testo chiaro, accessibile, completo e pratico, che si distingue decisamente dai contributi elaborati in materia da Stati Uniti e Cina, sia per approccio che per contenuti. Contrariamente ad altri documenti che trattano di etica, le linee guida non mirano a fornire un elenco di valori e principi astratti e/o generali per l’intelligenza artificiale, ma, al contrario, offrono indicazioni concrete sull’implementazione e sull’operatività dei sistemi stessi, includendo anche una checklist adatta a verificare sin dalla progettazione (“by design”) l’aderenza alle raccomandazioni etiche della Commissione Europea.

Il documento è senza dubbio innovativo per contenuti e modalità di formulazione, si rivolge a tutti coloro che sviluppano, implementano o utilizzano l’intelligenza artificiale, ed è destinato a essere aggiornato periodicamente nel tempo man mano che la tecnologia e le conoscenze evolvono.

Con questo contributo che, come vedremo, pone al centro del dibattito sull’intelligenza artificiale l’etica e la fiducia, l’Unione Europea mira a definire il “gold standard” per l’AI su scala globale e a divenire leader mondiale, così come lo è divenuta nel settore della riservatezza dei dati, ove ha imposto a tutte le società che operano in Europa o trattano dati di cittadini europei di conformarsi al Regolamento Generale sulla Protezione dei Dati (GDPR).

Tuttavia, è bene precisare che non si tratta di un documento giuridicamente vincolante e, pertanto, la volontà di aderirvi spetterà ai singoli destinatari.

La concezione “umano-centrica” muove dalla convinzione che quali che siano i benefici che l’intelligenza artificiale può apportare all’umanità, nulla può giustificare che si mettano a rischio i valori fondanti delle nostre società e la tutela delle libertà e dei diritti (emersa già precedentemente, nel 2017, nei rapporti del CNIL e dell’ICO sui possibili rischi connessi all’impiego di intelligenza artificiale, con particolare riguardo alla tutela dei dati personali). Seguendo questa concezione anche la Commissione Europea promuove, in primo luogo, il rispetto dei diritti, dei principi e dei valori umani, con un’impostazione tipicamente kantiana, secondo la quale lo sviluppo dell’intelligenza artificiale non è fine a sé stessa, ma piuttosto un mezzo per aumentare il benessere individuale e sociale.

Trustworthy AI, l’Intelligenza artificiale affidabile

È in questo contesto che si sviluppa la nozione fondamentale di Trustworthy AI (Intelligenza Artificiale affidabile). Tale concetto deve essere inteso secondo una duplice accezione: da una parte come “necessità di sistemi di intelligenza artificiale affidabili”, dall’altra come “conseguente affidamento generato negli utenti”: quanto più l’intelligenza artificiale sarà affidabile, tanto più velocemente gli utenti ne comprenderanno appieno i benefici e ne consentiranno la diffusione. In pratica gli esseri umani saranno in grado di cogliere con fiducia e pienamente i benefici dell’intelligenza artificiale soltanto se riusciranno a fidarsi della tecnologia.

Gli elementi alla base di una AI affidabile

Le linee guida delineano due elementi per la creazione di un’intelligenza artificiale affidabile:

  • Deve assicurare uno “scopo etico”
  • Deve essere tecnicamente solida e affidabile poiché, anche con buone intenzioni, la mancanza della padronanza tecnologica può causare danni non intenzionali.

Lo scopo etico – sempre in ottica umano-centrica – viene garantito mediante il rispetto dei diritti fondamentali, della normativa vigente e dei principi e valori fondamentali della società.

Alla base si colloca il rapporto tra diritti, principi e valori. I diritti forniscono il fondamento per la formulazione di principi etici che, per essere sostenuti, hanno bisogno di valori. Diritti, principi e valori dovranno poi essere tradotti in requisiti per lo sviluppo di sistemi di intelligenza artificiale.

I 5 principi alla base dell’AI

Oltre all’indicazione dei diritti fondamentali già presenti nella Carta dei Diritti Fondamentali dell’Ue (rispetto della dignità umana, libertà dell’individuo, rispetto della democrazia, giustizia e stato di diritto, uguaglianza, non discriminazione e solidarietà), vi sono poi cinque principi individuati dalla Commissione Europea:

  • Beneficenza (definita come “fare del bene”), secondo cui i sistemi di intelligenza artificiale dovrebbero essere progettati e sviluppati per migliorare il benessere individuale e collettivo;
  • Non-maleficenza (definita come “non nuocere”), secondo cui i sistemi di intelligenza artificiale non dovrebbero danneggiare gli esseri umani;
  • Autonomia (definita come “rispetto dell’autodeterminazione e scelta delle persone”), secondo cui la libertà e l’autodeterminazione degli esseri umani non potrà mai essere subordinata al controllo dei sistemi di intelligenza artificiale;
  • Giustizia (definita come “essere equo”), secondo cui i sistemi di intelligenza artificiale devono essere improntati a un sistema di equità, garantendo che individui e gruppi di minoranza mantengano la libertà da pregiudizi, stigmatizzazione e discriminazione e garantendo idonei risarcimenti in caso di danni;
  • Trasparenza (definita come “operare in maniera trasparente”), secondo cui, da un lato i sistemi di intelligenza artificiale e i loro processi decisionali ed evolutivi devono sempre essere controllabili, intellegibili e comprensibili dagli esseri umani, dall’altro ogni essere umano deve sempre essere informato di trovarsi di fronte a un sistema di intelligenza artificiale. La trasparenza costituisce la chiave per costruire e mantenere la fiducia dei cittadini negli sviluppatori di sistemi di intelligenza artificiale e nei sistemi di intelligenza artificiale stessi.

Mentre i primi due principi (beneficenza e non-maleficenza) erano già stati più volte affermati, anche in passato, gli altri principi assumono qui significati diversi e innovativi, specificamente incentrati sull’uso delle nuove tecnologie. E così, il principio di autonomia assume il più profondo significato di “non obbligatorietà” dell’uso di sistemi di intelligenza artificiale, vale a dire il divieto di rendere obbligatorio il ricorso a tali sistemi per lo svolgimento di determinate azioni, compiti o mansioni, al fine di controbilanciare l’imposizione da parte del mercato di standard di prestazione sempre più elevati. Il principio di giustizia, invece, è volto a prevenire il rischio di “pregiudizi artificiali” (bias), che possono portare a decisioni ingiuste. Infatti, se da un lato è vero che i sistemi di intelligenza artificiale non possono avere pregiudizi innati come gli umani, dall’altro è pur sempre vero che, essendo progettati dall’uomo, gli umani possono inserire in essi il loro pregiudizio, anche in modo non intenzionale.

Il principio di trasparenza

Ma la maggiore novità è rappresentata, senz’altro, dal principio di trasparenza che, esigendo il pieno controllo e la comprensibilità umana dei processi di intelligenza artificiale, di fatto esclude la configurabilità (o quantomeno l’affidabilità) della cosiddetta intelligenza artificiale forte (Strong AI). Se non è difficile comprendere la ratio che ha condotto la Commissione a tale conclusione, orientata al mantenimento della supremazia dell’uomo al fine di consentire la formazione della fiducia per la diffusione dell’intelligenza artificiale tra gli utenti, non si comprende facilmente come tale principio possa trovare reali applicazioni pratiche. Già oggi le machine learning, che evolvono apprendendo dalla propria esperienza e in modo non sempre prevedibile, o i più complessi sistemi adattivi che sono in grado di modificare il proprio codice autonomamente per adattarlo alle circostanze esterne, possono apparire in contrasto con questo principio. Inoltre, una simile chiusura potrebbe concretizzare il rischio di una scarsa adesione alle linee guida da parte di tutte le imprese che da anni hanno investito ingenti risorse economiche nello sviluppo di intelligenze artificiali forti, o anche solo intelligenze artificiali con processi decisionali ed evolutivi particolarmente complessi e caratterizzati da sempre maggiore autonomia.

I requisiti per sistemi AI affidabili

Accanto ai diritti e ai principi fondamentali, le Linee Guida individuano anche dieci specifici requisiti che concretamente devono possedere i sistemi di intelligenza artificiale per essere affidabili:

  1. Responsabilità: secondo cui è necessario costruire un impianto di responsabilità in caso di errori o abusi da cui derivino danni a terzi, prevedendo meccanismi sanzionatori e risarcitori.
  2. Controllo dei dati: secondo cui è necessario adottare sistemi che permettano il controllo e la pulitura da possibili “pregiudizi” dei dati utilizzati per l’apprendimento delle machine learning, al fine di evitare decisioni inique e discriminatorie. Si suggeriscono inoltre sistemi di registrazione dei dati per i sistemi ad apprendimento continuo, per prevenire possibili manipolazioni.
  3. Design democratico: secondo cui i sistemi devono essere progettati in modo da consentire a tutti i cittadini di utilizzare i prodotti o i servizi, indipendentemente dalla loro età, dallo stato di disabilità o dallo stato sociale.
  4. Supervisione umana dell’autonomia AI: secondo cui maggiore è l’autonomia di un’AI, maggiore dovrà essere il controllo umano esercitato su di essa. In particolare, in presenza di sistemi di intelligenza artificiale che suggeriscono o prendono decisioni riguardanti individui o comunità, l’utente dovrà poter deviare da un percorso o da una decisione scelta o raccomandata dal sistema di intelligenza artificiale.
  5. Non Discriminazione: secondo cui è particolarmente importante evitare il rischio di bias in fase di programmazione, poiché potrebbero verificarsi discriminazioni “implicite” o manipolazioni volontarie.
  6. Rispetto (e miglioramento) dell’autonomia umana: secondo cui i sistemi di intelligenza artificiale dovrebbe essere progettati anche per proteggere i cittadini nella loro diversità dagli abusi, governativi e privati, resi possibili dalle tecnologie.
  7. Rispetto della privacy: secondo cui la privacy e la protezione dei dati devono essere garantite in tutte le fasi del ciclo di vita del sistema di intelligenza artificiale. Ciò include tutti i dati forniti dall’utente, ma anche tutte le informazioni generate sull’utente nel corso delle sue interazioni con il sistema di intelligenza artificiale.
  8. Robustezza: secondo cui gli algoritmi devono essere sicuri, affidabili e sufficientemente robusti da gestire errori o incongruenze durante la fase di progettazione, sviluppo, esecuzione, implementazione e utilizzo del sistema di intelligenza artificiale e per far fronte adeguatamente a esiti errati. I risultati devono, dunque, essere sempre riproducibili in modo indipendente, una condizione che oggi non è possibile soddisfare con la maggior parte dei sistemi. Devono essere precisi nel classificare le informazioni, nel fare previsioni e valutazioni e devono naturalmente essere resistenti agli attacchi informatici.
  9. Sicurezza: secondo cui i sistemi di intelligenza artificiale devono fare ciò per cui sono stati progettati, senza danneggiare gli utenti (integrità fisica umana), le risorse o l’ambiente. Include la riduzione al minimo delle conseguenze indesiderate e degli errori nel funzionamento del sistema
  10. Trasparenza: che implica la capacità di descrivere, ispezionare e riprodurre i meccanismi attraverso i quali i sistemi di intelligenza artificiale prendono decisioni e imparano ad adattarsi ai loro ambienti, così come la provenienza e la dinamica dei dati che vengono utilizzati e creati dal sistema. La trasparenza riguarda la riduzione dell’asimmetria informativa, in armonia con il GDPR.

Tali requisiti devono essere incorporati fin dalla progettazione (“by design”). Il Gruppo di esperti prende in considerazione metodi tecnici e non tecnici per garantire l’attuazione di tali requisiti nel sistema di intelligenza artificiale, illustrando soluzioni su come fornire trasparenza e responsabilità e incoraggiando le aziende e i ricercatori a sviluppare la protezione della privacy, la non discriminazione e la supervisione umana nei progetti sin dalla fase iniziale.

Si tratta, quindi, di una guida per garantire uno scopo etico, strutturata in tre parti, attraverso un’escalation che va dall’astratto (i principi) al concreto (i requisiti e i metodi tecnici e non tecnici), per realizzare sistemi di intelligenza artificiale affidabili sia per valutarne l’affidabilità: in definitiva, una guida per l’interazione tra progettazione, implementazione e valutazione.

Le criticità dell’approccio Ue

Una critica che, tuttavia, può essere mossa è che l’intero lavoro parte da una premessa contradditoria e da discutere. Si legge, infatti, già nelle prime righe del documento che “nel complesso, i benefici dell’AI superano i suoi rischi”. Tale assunto, per quanto confortante e rassicurante, non è dimostrato né dimostrabile. Non vi sono studi che abbiano mappato e confrontato i potenziali benefici e rischi dell’AI al fine di stabilire la prevalenza degli uni o degli altri.

Lo stesso documento nel prosieguo smentisce tale premessa:

  • Affermando “dobbiamo garantire di seguire la strada che massimizza i benefici dell’intelligenza artificiale minimizzando i suoi rischi”;
  • Inserendo tra i requisiti per l’affidabilità il rispetto (e miglioramento) dell’autonomia umana, con l’affermazione che i sistemi di intelligenza artificiale dovrebbero contenere in sé stessi le contromisure per evitare possibili abusi molto gravi da essi derivanti;
  • Illustrando le criticità e i rischi che generano preoccupazioni nell’utilizzo dei sistemi di intelligenza artificiale, quali le armi letali autonome, i sistemi di punteggio di massa e i sistemi di intelligenza artificiale nascosti.

Per prima cosa, gli esperti analizzano i possibili rischi derivanti dall’utilizzo di software AI che consentono il riconoscimento facciale: essi potrebbero portare a identificazioni senza consenso da parte degli utenti, che conducono a un monitoraggio e una sorveglianza di massa.

Si è sempre pensato che questo pericolo fosse limitato a Stati altamente centralizzati e autoritari come la Cina, ma ci sono segnali che lasciano presagire che anche in Occidente potrebbe accadere qualcosa di simile. Solo pochi giorni fa, infatti, la polizia britannica ha annunciato che stava testando il riconoscimento facciale sui passanti durante gli acquisti natalizi a Londra allo scopo di individuare alcuni criminali ricercati dalle forze di polizia.

La chiave per evitare abusi da parte di simili sistemi, dovrebbe essere il consenso informato dei cittadini, principio già più volte affermato anche nel GDPR in materia di tutela dei dati personali. Tuttavia, come spesso accade, la pratica non sempre corrisponde alla teoria. Nel caso di Londra, infatti, anche se le riprese sono state chiaramente pubblicizzate e ai passanti veniva data la possibilità di non dare il consenso alle riprese, una simile decisione ingenerava automaticamente sospetti sugli utenti che avessero rifiutato, con la conseguenza che essi sarebbero stati comunque tenuti sotto controllo dal personale di sicurezza.

I rischi dei sistemi AI “nascosti” (assistenti vocali)

I sistemi di intelligenza artificiale “nascosti” o “celati” come i software e i robot che fingono con successo di essere umani, come ad esempio l’assistente Google che chiama il parrucchiere per un appuntamento, costituiscono un’ulteriore criticità che ha suscitato vivaci discussioni tra gli esperti: è stato individuato il rischio che la loro inclusione nella società umana possa cambiare la nostra percezione degli uomini e dell’umanità. Gli esperti hanno convenuto che “le persone con il potere di controllare l’intelligenza artificiale sono potenzialmente in grado di manipolare gli esseri umani su una scala senza precedenti” e, pertanto, al fine di neutralizzare questo rischio gli utilizzatori umani dovranno sempre essere informati di stare interagendo con una macchina.

Quest’ultima affermazione, se dovesse realmente concretizzarsi, comporterebbe che i rischi supererebbero di gran lunga i benefici. Le persone sono generalmente molto disposte a interagire con i sistemi di intelligenza artificiale in modi che le espongono, sempre più, alla manipolazione (si pensi al caso dei social network e ai recenti scandali di Cambridge Analytica): ciò dimostra che il livello di manipolazione potrà essere aggravato in futuro anche in assenza di sistemi di intelligenza artificiale “nascosti” che fingono di essere umani.

Le incognite dello scoring

Una preoccupazione è rappresentata dall’impiego di algoritmi di profilazione con finalità di scoring, attività non necessariamente negativa (si pensi ai punteggi ottenuti a scuola o per la patente di guida). In tal caso il rischio di abuso si concretizza quando ogni aspetto della vita dei cittadini è sottoposto a valutazioni algoritmiche (come ad esempio nel sistema di credito sociale cinese).

Per evitare il rischio di abusi, gli esperti hanno convenuto che “ogniqualvolta il punteggio dei cittadini venga applicato in un ambito sociale limitato, deve essere disponibile per i cittadini una procedura pienamente trasparente e devono essere fornite loro informazioni sul processo, lo scopo e la metodologia del punteggio, offrendo loro idealmente la possibilità di rinunciare al meccanismo del punteggio”.

Anche in questo caso, la pratica può risultare più complessa della teoria. Infatti, anche qualora le democrazie occidentali non profilino i propri cittadini al pari della Cina, garantendo una procedura trasparente, il rischio che tali informazioni siano comunque utilizzate per un più pregnante ed efficace controllo sulla popolazione è di fatto esistente.

I robot killer

Il gruppo di esperti si sofferma, infine, sulle criticità e i rischi derivanti dall’uso dei Lethal Authonomous Weapon Systems (LAWS) o i robot killer, come sono più ampiamente conosciuti. Un primo tentativo di vietare il loro sviluppo è stato bloccato a settembre da un gruppo di potenze militari che comprendeva Stati Uniti, Russia, Corea del Sud, Israele e Australia.

Secondo gli esperti i LAWS potrebbero portare i benefici di “un’ uccisione selettiva”, ad esempio risparmiando i bambini. Ma la capacità di queste armi “di decidere chi, quando e dove combattere senza l’intervento umano” potrebbe condurre “a una corsa agli armamenti incontrollabile su un livello storicamente senza precedenti, creando contesti militari in cui il controllo umano è quasi interamente abbandonato”.

Tale preoccupazione affermata dai 52 esperti nel documento è una forte indicazione che l’assunto “i benefici dell’AI superano i suoi rischi”, forse, è eccessivo e ampiamente da ridiscutere.

WHITEPAPER
6 elementi da considerare per un sistema telefonico in cloud adatto alla tua azienda enterprise
Cloud
Risorse Umane/Organizzazione
@RIPRODUZIONE RISERVATA

Speciale PNRR

Tutti
Incentivi
PA
Sostemibilità
Analisi
Formazione
Salute digitale
Sicurezza
Sostenibilità
Digital Economy
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati