gdpr e privacy

Decisioni automatizzate, quale difesa da chi ci discrimina via algoritmi

L’attuale dibattito sul diritto di chiedere spiegazioni sulle correlazioni effettuate dagli algoritmi nei processi decisionali automatizzati non coglie il quadro più ampio della questione, relativo all’etica digitale e alla fiducia. Perché non è mai l’algoritmo che è sbagliato ma sono gli uomini a fare delle discriminazioni

19 Dic 2018
Massimo Valeri

Senior Consultant in ambito Data Protection & Security

algorithms

Nella comunità accademica, il regolamento generale sulla protezione dei dati dell’UE (Gdpr) ha innescato un vivace dibattito sulla questione che ruota attorno al diritto, da parte degli interessati, di chiedere spiegazioni in merito agli algoritmi alla base delle decisioni automatizzate che gravano su di loro.

Da una parte, molti sposano la tesi secondo la quale non esisterebbe un tale diritto, quanto piuttosto un “limitato diritto all’informazione”.

Al contrario, altri hanno sostenuto che questa posizione si basa su una lettura molto ristretta delle disposizioni pertinenti del GDPR e che un’interpretazione contestuale autorizzerebbe invece a ritenere che il Regolamento fornisca effettivamente un diritto di spiegazione rispetto alle decisioni automatizzate.

Ma il dibattito è fuori fuoco per tutta una serie di motivi che cercheremo di esaminare.

Accountability e discriminazione nei processi decisionali automatizzati

In realtà, fornire agli interessati informazioni iniziali sul processo decisionale automatizzato e sulla sua logica soggiacente, nonché una spiegazione delle decisioni automatiche dopo che queste sono state compiute, appare una necessità inderogabile; il concetto di accountability (articoli 5 paragrafo 2) richiede che i titolari, nell’ambito del trattamento dei dati personali, dimostrino la conformità del proprio operato e delle proprie scelte ad obblighi essenziali del GDPR quali, in particolare, i requisiti di liceità, equità e trasparenza.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy

Proprio il requisito di trasparenza nei confronti delle persone fisiche e il diritto dei singoli di accedere ai propri dati consentono loro di esercitare altri diritti:

  • quali l’opposizione alla profilazione (articolo 21),
  • la richiesta di cancellazione e di rettifica del profilo (articolo 17),
  • fino a concedere loro di contestare decisioni automatizzate ad essi relative (articolo 22, paragrafo 3).

Tutto ciò richiede che i titolari del trattamento siano in grado di dimostrare che le regole decisionali applicate nell’algoritmo siano significative ed imparziali (non discriminatorie) e possano quindi costituire una legittima giustificazione per le decisioni automatiche prese sugli individui. Dunque, in virtù del principio stesso di accountability, il dibattito sul fatto che il GDPR fornisca o meno agli individui il diritto ad una spiegazione in merito ai processi decisionali automatizzati risulta allo scrivente secondario rispetto all’obbligo che, alla fine, ricade comunque su ogni titolare, di dimostrare che le logiche nell’algoritmo possano essere legittimamente usate come base per le decisioni automatizzate.

Tramite i media, veniamo spesso a conoscenza di casi in cui l’implementazione di certi algoritmi di machine learning porta a risultati discriminatori. Una possibile spiegazione che potrebbe essere fornita dal titolare alla logica sottostante una decisione automatizzata ritenuta “discriminatoria” sugli interessati è che certi individui provengono da uno specifico sottoinsieme dell’universo statistico di riferimento di cui l’algoritmo ha tenuto conto e che questa differente provenienza agisce in modo significativo nell’attribuzione delle decisioni automatizzate.

Esempi di discriminazioni

Negli Stati Uniti, ad esempio, gli “strumenti di previsione del crimine” hanno dimostrato di discriminare alcune minoranze di individui. Sulla base di eventi passati, l’algoritmo utilizzato ha assegnato un punteggio di rischio più elevato a determinate minoranze etniche e ciò ha fatto che sì la polizia si soffermasse maggiormente su questo gruppo di individui nelle sue ricerche.

Un altro esempio di come gli algoritmi alla base di decisioni automatizzate possano produrre esiti discriminatori è il processo di selezione. Ad esempio, generalmente, la maggior parte degli insegnanti della scuola primaria è di genere femminile. Ebbene, un algoritmo sviluppato per selezionare i migliori candidati per questo lavoro sarebbe alimentato con i curriculum ricevuti in passato. Dato che le scuole primarie impiegano molte più donne che uomini, l’algoritmo svilupperà rapidamente una preferenza per le candidate donne, e, se anche si rendessero i curricula neutrali dal punto di vista del genere, ciò non risolverebbe il problema. L’algoritmo individuerebbe infatti rapidamente altri modi per spiegare perché i curriculum femminili vengono selezionati più spesso, magari prediligendo determinati hobby femminili e assegnando meno punti ai curriculum che elencano passatempi tradizionalmente maschili.

Dunque, generalizzando, se si utilizzano certi requisiti per impostare un algoritmo, quest’ultimo assegnerà un punteggio più elevato ad un determinato gruppo di individui piuttosto che ad un altro. La discriminazione mediante algoritmi è, quindi, un riflesso della discriminazione già in atto “sul campo”. Poiché gli algoritmi sono sempre costruiti su dati storici, è praticamente impossibile trovare un set di dati “pulito” su cui un algoritmo possa essere implementato senza essere “privo di pregiudizi”. Per risolvere questo problema, alcuni indicatori di gruppo come razza, genere e religione vengono spesso rimossi dai dati di sviluppo. L’idea è che se l’algoritmo non può “vedere” questi elementi, il risultato non sarà discriminatorio.

In realtà, l’esperienza ha portato a concludere che anche rimuovere gli indicatori di gruppo non aiuta, se i dati sottostanti sono comunque unilaterali. L’algoritmo, infatti, troverebbe presto degli indicatori derivati ​​– delle proxy – per reindirizzare la rimozione compiuta. L’unica soluzione consiste nel rendere i bias trasparenti prima ancora dello sviluppo dell’algoritmo, cioè nei requisiti di implementazione. Ciò richiede che gli indicatori di gruppo siano raccolti in primo luogo per valutare se i gruppi di minoranza sono trattati in modo non equo. Quindi l’algoritmo deve essere implementato contro la selezione di questi fattori, mediante uno “sviluppo al contrario”. Questo è l’unico modo per evitare che i pregiudizi passati influenzino anche i risultati futuri.

Sono gli uomini a discriminare, non gli algoritmi

Ancora una volta, non è l’algoritmo che è sbagliato, piuttosto sono gli uomini a fare delle discriminazioni e l’algoritmo non fa altro che rilevare questo errore.

D’altra parte, questa situazione offre opportunità per ridurre la disuguaglianza proprio attraverso gli algoritmi. Per far ciò è imperativo che il titolare sia a conoscenza di chi appartiene ad alcuni gruppi minoritari.

Il tabù contro la raccolta di queste categorie di dati deve quindi essere rotto. Ma anche le aziende che implementano l’intelligenza artificiale dovrebbero essere consapevoli del fatto che il principio di equità ai sensi del GDPR non può essere raggiunto attraverso la mancata conoscenza del contesto o della logica sottostante un processo decisionale automatizzato da parte del titolare. Come sottolineato dal Considerando 78 (“Al fine di poter dimostrare la conformità con il presente regolamento, il titolare del trattamento dovrebbe adottare politiche interne e attuare misure che soddisfino in particolare i principi della protezione dei dati fin dalla progettazione e della protezione dei dati di default”), il titolare, per non venire meno agli obblighi posti dal GDPR in merito al processo decisionale automatizzato, dovrà quindi progettare, sviluppare e applicare algoritmi in modo trasparente, prevedibile e verificabile.

“Lo ha fatto l’algoritmo” non è più una scusa accettabile

Il titolare del trattamento, infatti, dovrà dimostrare che l’utilizzo di queste “regole” per la decisione sia in realtà pertinente rispetto alla finalità del trattamento e non produca una discriminazione illecita alla prosecuzione del trattamento stesso. Se la persona non è soddisfatta, presenterà una denuncia e le autorità di vigilanza dell’UE indagheranno.

La responsabilità algoritmica implica l’obbligo di riferire e giustificare il processo decisionale dell’algoritmo e di mitigare eventuali impatti sociali negativi generati.

Queste preoccupazioni non sono limitate alle sole leggi dell’Unione Europea. Anche la Federal Trade Commission statunitense ha tenuto a promuovere simili principi di liceità e correttezza nell’applicazione di algoritmi al processo decisionale. Alcuni studiosi statunitensi stanno affrontando il problema relativo ai disparati impatti che il processo decisionale automatizzato può produrre nel contesto lavorativo nei confronti delle classi protette, a violazione delle leggi anti-discriminatorie degli Stati Uniti.

Un’organizzazione deve essere in grado di spiegare e documentare come vengono elaborati i dati personali in conformità con le leggi e il Regolamento. Se l’autorità di Data Protection sospetta che l’account fornito da un’organizzazione sia errato o contenga informazioni errate, può chiedere all’organizzazione di verificare i dettagli delle sue operazioni tipiche e delle sue valutazioni. Ciò può essere necessario quando, ad esempio, si sospetta che un algoritmo stia mettendo in correlazione dati che porteranno a un risultato discriminatorio.

Diritto all’informazione vs diritto alla spiegazione

Per quanto riguarda il diritto all’informazione, il GDPR, agli articoli 13-2-f e 14-2-g (“nel momento in cui i dati personali sono ottenuti, il titolare del trattamento fornisce all’interessato le seguenti ulteriori informazioni necessarie per garantire un trattamento corretto e trasparente…l’esistenza di un processo decisionale automatizzato, compresa la profilazione di cui all’articolo 22, paragrafi 1 e 4, e, almeno in tali casi, informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”), richiede esplicitamente che i titolari del trattamento utilizzino dati personali per prendere decisioni automatizzate, informando gli individui a proposito delle attività decisionali automatizzate e fornendo loro informazioni significative sulla logica utilizzata, sul significato del processo decisionale e sulle conseguenze previste per tali individui.

All’interno del documento “Opinion on Automated Decision-Making and Profiling”, il Gruppo Working Party 29 ha riconosciuto che “la crescita e la complessità del machine learning (apprendimento automatico) possono rendere difficile comprendere come funziona un processo decisionale o una profilazione automatizzata“, ma che, nonostante questo, “l’azienda dovrebbe trovare modi semplici per dire all’individuo quale sia la logica alla base dell’algoritmo o i criteri su cui si basa per raggiungere la decisione, senza necessariamente optare per una spiegazione complessa degli algoritmi usati o per una divulgazione dell’algoritmo completo”.

Chiaramente, affinché il titolare possa spiegare questi criteri, dovrà prima di tutto conoscerli, cioè l’algoritmo non dovrebbe costituire per lui una “black box”.

Quanto al diritto di una spiegazione, l’articolo 22, paragrafo 3, del GDPR impone al titolare del trattamento di attuare misure di salvaguardia adeguate nel progettare decisioni automatizzate, che dovrebbero includere almeno il diritto dell’individuo di esprimere il proprio punto di vista e contestare la decisione.

Il considerando 71 menziona una tutela ulteriore: il diritto alla spiegazione di una decisione automatizzata specifica (“In ogni caso, tale trattamento dovrebbe essere subordinato a garanzie adeguate, che dovrebbero comprendere la specifica informazione all’interessato e il diritto di ottenere l’intervento umano, di esprimere la propria opinione, di ottenere una spiegazione della decisione conseguita dopo tale valutazione e di contestare la decisione”).

Gli autori che sostengono che l’articolo 22 non fornisca il diritto ad una spiegazione sottolineano che tale diritto è incluso solo nella parte introduttiva del Regolamento e che questa non ha forza vincolante, come confermato dalla Corte di Giustizia dell’Unione europea. Tuttavia, sempre la Corte di Giustizia dell’Unione Europea ha spiegato altresì che la parte introduttiva non è priva di ogni significato, semplicemente ne ha vietato l’utilizzo per interpretare una disposizione in modo del tutto contrario alla sua formulazione.

L’articolo 22, paragrafo 3, specifica che almeno le garanzie nella progettazione delle decisioni automatizzate devono essere incluse. Questa formulazione lascia spazio a sufficienza per richiedere altre garanzie, come il diritto alla spiegazione di una decisione automatizzata specifica menzionata nel considerando 71. Ancora una volta, affinché il titolare possa spiegare la decisione in modo tale che l’individuo possa comprenderla, deve prima di tutto conoscere le regole alla base della decisione automatizzata.

La responsabilità algoritmica come riflesso della privacy by design

Anche se ben lungi dall’instaurare ciò che richiederebbe lo sviluppo di una “scatola bianca”, ci sono alcune linee guida da tenere in considerazione nello sviluppo di algoritmi per il processo decisionale automatizzato. Documentando queste fasi e valutazioni, il titolare del trattamento sarà in grado di rispettare anche l’obbligo di eseguire una valutazione dell’impatto sulla protezione dei dati.

I titolari devono effettuare frequenti valutazioni sui set di dati che elaborano, per verificare eventuali pregiudizi e sviluppare modalità per affrontare eventuali elementi pregiudizievoli, incluso l’eccessivo ricorso alle correlazioni.

Un’altra misura utile è affidarsi a sistemi che controllano gli algoritmi o a revisioni periodiche dell’accuratezza e della rilevanza del processo decisionale automatizzato, inclusa la profilazione. I titolari dovrebbero introdurre procedure e misure appropriate per prevenire errori, inesattezze o discriminazioni sulla base di dati di categorie speciali. Queste misure dovrebbero essere utilizzate su base ciclica; non solo in fase di progettazione, ma anche in modo continuo, poiché la profilazione viene applicata agli individui.

L’esito di tali test dovrebbe rientrare nella progettazione del sistema.

Questione di fiducia, etica e integrazione tecnologica

Le principali motivazioni alla base delle leggi sulla protezione dei dati dell’UE intendono impedire disparità e ingiustizie nell’uso e diffusione delle informazioni. Questi principi possono essere garantiti solo se i titolari non nascondono le proprie responsabilità dietro algoritmi utilizzati in decisioni automatizzate che coinvolgono gli interessati. I titolari restano infatti responsabili dei risultati di data protection.

Peraltro, come evidenziato nell’articolo, se gli algoritmi di autoapprendimento generano delle discriminazioni, spesso ciò non è dovuto ad un errore insito nell’algoritmo, ma al fatto che i dati utilizzati per sviluppare l’algoritmo sono “distorti”. Solo quando si conoscono bene i dati appartenenti a gruppi vulnerabili, è possibile rendere trasparenti i pregiudizi nei dati e sviluppare adeguatamente gli algoritmi. Il tabù contro la raccolta di tali dati dovrebbe, pertanto, essere rotto, in quanto questo è l’unico modo per eliminare la discriminazione futura.

In definitiva, l’attuale dibattito accademico circa i diritti degli individui nel chiedere spiegazioni in relazione alle correlazioni effettuate dagli algoritmi nei processi decisionali automatizzati che vertono su di essi, non coglie il quadro più ampio della questione, relativo piuttosto alla necessità di riconquistare la fiducia degli interessati e di trovare strade nuove per fornire adeguate garanzie di equità nei processi decisionali (scandagliando evidentemente il legame fra GDPR, Artificial Intelligence e apprendimento automatico), con il rischio che le aziende facciano lo stesso.

Le notizie pressoché costanti di scandali sulla privacy, in cui non solo le informazioni personali sono state perse, ma anche utilizzate in modo inaspettato, costituiscono un forte richiamo all’importanza della protezione e della responsabilità dei dati nell’era digitale, ma al tempo stesso corrodono la fiducia dei consumatori.

E la fiducia è fondamentale affinché le organizzazioni possano sfruttare i vantaggi dell’analisi dei dati mantenendo al contempo relazioni positive con chi affida ad esse tali informazioni.

Dunque, la vera questione centrale oggi riguarda l’etica digitale, compresi argomenti che eccedono il tradizionale mandato dei professionisti della privacy. Ad esempio, come possiamo garantire un processo giusto ed equo in un’epoca in cui l’apprendimento automatico e l’intelligenza artificiale prendono decisioni in materia di sicurezza stradale, assistenza sanitaria e istruzione? In che modo le organizzazioni possono garantire l’accesso ai dati delle persone per scopi socialmente vantaggiosi senza sacrificare la privacy e i diritti individuali? In che modo le società possono proteggersi dalla minaccia di ingerenze malevoli nelle elezioni democratiche attraverso la manomissione dei social media?

Di fronte a questi problemi e sfide, i regolatori della privacy si stanno rendendo conto che le risposte si trovano al di là delle normative e dei quadri di protezione dei dati regionali e nazionali e richiedono l’apertura a tecnologie che determineranno il modo in cui noi e le generazioni future comunicheremo, da sviluppare in modo tale che il rispetto dei diritti fondamentali non venga indebolito.

In questo scenario, i Big Data, l’Intelligenza Artificiale e le tecnologie di machine learning, che permettono di esaminare una grande mole di dati in tempo praticamente reale e di rilevare modelli specifici di comportamento, anomalie e tendenze generali, riducendo al minimo l’attenzione e la supervisione degli esseri umani ai dati, potrebbero, se usate correttamente, adeguarsi facilmente al GDPR e potrebbero tornare utili nel rafforzamento delle difese della privacy e nel rafforzamento della fiducia degli interessati.

Ecco che la privacy by design, una delle rivoluzioni portate in dote dal GDPR, costituisce la vera sfida in ambito data protection per far fronte alle questioni ancora irrisolte poste in essere dall’utilizzo di queste tecnologie e dalla necessità della loro integrazione coi dettami del GDPR.

WHITEPAPER
Certificazioni GDPR: tutti i vantaggi per le organizzazioni che vi aderiscono
Legal
Privacy
@RIPRODUZIONE RISERVATA

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articolo 1 di 4