l’analisi

Proteggere l’intelligenza artificiale: i rischi cyber e come mitigarli



Indirizzo copiato

Minacce come il data poisoning e gli adversarial attacks sono un rischio per la sicurezza delle applicazioni di IA. Le istituzioni internazionali, come l’Ue con l’AI Act, e gli enti di standardizzazione come il NIST e l’ETSI, mostrano un impegno costante nel definire regolamenti e metodologie che guidino aziende e operatori del settore verso una gestione dei rischi più consapevole…

Pubblicato il 29 apr 2024

Sara Mancini

Senior Manager di Intellera Consulting

Claudio Paganelli

Associate Partner di Intellera Consulting

Massimo Pellegrino

Partner di Intellera Consulting

Federico Pozzi

Associate di Intellera Consulting

Alberto Venditti

Associate di Intellera Consulting



Person,Touching,Shield,Glowing,Icon,As,Concept,About,Security,And

Con la crescente adozione dell’Intelligenza Artificiale in ambiti esposti al rischio di attacchi informatici, la cybersecurity è diventata una priorità cruciale. Anche l’AI Act, il regolamento dell’Unione europea per le applicazioni di IA, ne ha riconosciuto la rilevanza, ponendo dei requisiti ad hoc per le applicazioni ad alto rischio.

In questo contesto, il focus si concentra verso due minacce sempre più rilevanti per la sicurezza delle applicazioni di IA: il data poisoning e gli adversarial attacks. Il data poisoning si riferisce alla manipolazione dei dati utilizzati per addestrare i modelli di IA, mentre gli adversarial attacks mirano a ingannare i sistemi di IA manipolando input impercettibilmente per gli esseri umani ma altamente influenti per l’algoritmo. Queste minacce rappresentano un serio rischio per la sicurezza delle applicazioni di IA, poiché possono compromettere l’integrità dei risultati e portare a conseguenze dannose, spesso con implicazioni significative per la privacy, la sicurezza e la fiducia pubblica.

In un mondo in cui la tecnologia avanza rapidamente, è essenziale adottare misure robuste per garantire che l’IA continui a essere un motore di innovazione e progresso, mantenendo nel contempo elevati standard di sicurezza e affidabilità.

Le disposizioni dell’AI Act delineano requisiti specifici per le applicazioni ad alto rischio, mentre la prevenzione attiva e la vigilanza costante sono essenziali per contrastare queste minacce in continua evoluzione. Affrontare efficacemente queste sfide, anche attraverso il supporto degli standard, richiede un impegno continuo per garantire che l’IA sia utilizzata in modo sicuro e responsabile, proteggendo al contempo la privacy, la sicurezza e la fiducia del pubblico.

Come l’Unione Europea regola l’IA: l’AI Act

Dopo un lungo iter legislativo, il 13 marzo è stato approvato l’AI Act dal Parlamento europeo. Entrerà dunque in vigore la prima legge al mondo per regolamentare l’intelligenza artificiale.

Nello specifico, l’AI Act delinea quattro livelli di rischio per le applicazioni di IA: rischio inaccettabile, rischio elevato, rischio per requisiti di trasparenza e rischio minimo o nullo.

Questa categorizzazione ha lo scopo di incentivare lo sviluppo responsabile delle tecnologie di IA o che contengono elementi di IA, dando così il via a percorsi di conformità che i fornitori dovranno seguire per allinearsi a quanto stabilito dalla legge. Saranno proibiti i sistemi di IA che potrebbero essere utilizzati in modo intrusivo e discriminatorio, con rischi inaccettabili per i diritti fondamentali dei cittadini, la loro salute, la loro sicurezza o altre questioni di interesse pubblico.

Tra le applicazioni di intelligenze artificiale a rischio inaccettabile, ci sono la manipolazione dei comportamenti delle persone o di gruppi vulnerabili, come ad esempio i giocattoli parlanti per bambini, e il social scoring, ossia l’assegnazione di punteggi alle attività e interazioni di un individuo per valutare il suo comportamento e affidabilità sociale.

Una rappresentazione sommaria dei differenti livelli di rischio identificati nell’AI Act è fornita nell’immagine di seguito.

Fonte: Rielaborazione Intellera Consulting sulla base dell’AI Act

Facendo riferimento specifico ai sistemi di IA ad alto rischio, l’AI Act individua due categorie differenti di sistemi riconducibili a questa definizione.

La prima comprende i sistemi di IA utilizzati come componenti di sicurezza di prodotti (o che sono esse stesse prodotti) normalmente soggetti a valutazione di conformità ex-ante da parte di terzi, coperti dalla legislazione di cui all’Allegato II del Regolamento (la normativa di armonizzazione dell’UE in base al Nuovo Quadro Normativo, per esempio il regolamento sulle macchine, la direttiva sulle apparecchiature radio, il regolamento sui dispositivi medici e il regolamento sulla diagnostica in vitro; altre normative di armonizzazione specifica di settore comprese quelle sulle automobili, aeromobili o il sistema ferroviario).

La seconda, invece, include i sistemi di IA che presentano rischi per i diritti fondamentali. L’AI Act, infatti, specifica otto aree di applicazione dove un sistema di IA è considerato ad alto rischio per i diritti dei cittadini europei. L’Allegato III prevede nello specifico che siano considerati ad alto rischio alcuni sistemi per il riconoscimento biometrico, i sistemi per la gestione e il funzionamento di infrastrutture critiche e digitali, i sistemi per istruzione e vocational training, i sistemi per la gestione del personale, i sistemi che regolano l’accesso a servizi e benefici essenziali – pubblici e privati -, i sistemi di law enforcement, i sistemi di gestione dei flussi migratori, asilo e controllo delle frontiere, i sistemi di amministrazione della giustizia e processi democratici.

IA ad alto rischio: i requisiti volti a garantire una maggiore affidabilità

Le applicazioni di IA ad alto rischio sono soggette a requisiti particolari, volti a garantire una maggiore affidabilità di questi sistemi. I requisiti a cui le applicazioni ad alto rischio sono soggette sono:

  • Istituzione di un sistema di risk management (e di quality management).
  • Istituzione di processi e pratiche relative a dati e data governance.
  • Predisposizione e aggiornamento di documentazione tecnica relativa al sistema.
  • Mantenimento dei record relativi alle performance del sistema in tutto il suo ciclo di vita.
  • Garanzia di trasparenza e informazione nei confronti di chi rilascia il sistema (deployer).
  • Garanzia di supervisione umana durante l’intero ciclo di vita del sistema.
  • Rispetto dei principi di accuratezza, robustezza e cybersecurity.
  • Conduzione di un’analisi d’impattoFundamental Rights Impact Assessment – per verificare che il sistema non causi danno ai diritti fondamentali degli esseri umani. Tale analisi deve essere condotta prima che il sistema venga messo in uso e si applica a: (i) enti di diritto pubblico; (ii) operatori privati che forniscono servizi pubblici; (iii) operatori che implementano sistemi per la valutazione del credito o la valutazione di assicurazione su vita e salute.

Gli obblighi di trasparenza

Gli obblighi di trasparenza, invece, si applicano alle applicazioni che: interagiscono in modo diretto con gli esseri umani (come le chatbot), generano o manipolano contenuti (cosiddetti “deep fake”) e vengono usate per rilevare le emozioni o determinare l’associazione a categorie (sociali) sulla base di dati biometrici. I requisiti di trasparenza si applicano trasversalmente a tutte le applicazioni che rispettano tali criteri, anche se di diverso livello di rischio.

I requisiti specifici per i sistemi di IA generativa e i modelli di base

Per i sistemi di IA generativa e i modelli di base (General Purpose AI – GPAI) che li compongono sono previsti requisiti specifici come: regole su sicurezza informatica, trasparenza dei processi di addestramento, condivisione della documentazione tecnica, valutazioni di questi pericoli e strategie di mitigazione e, infine, obbligo di comunicare alla Commissione eventuali incidenti.

Riguardo al meccanismo di governance interno ai Paesi dell’Unione, è stato stabilito che ogni Stato Membro dovrà designare una o più autorità nazionali competenti per la supervisione dell’applicazione e dell’attuazione dell’AI Act.

Per i sistemi di IA generativa e i modelli di General Purpose (GPAI), alla base degli stessi, lo scorso 24 gennaio è stato istituito l’AI Office, che fungerà da struttura di governance a livello europeo con compiti specifici in relazione questi modelli. Essendo il primo organismo al mondo con il potere di applicare le norme su GPAI, l’Office rappresenta un punto di riferimento internazionale per la governance dell’AI, sostenendo l’UE e gli Stati membri nel contesto della cooperazione internazionale relativa all’applicazione delle norme applicabili all’IA generativa.

Quali rischi in ambito cybersecurity per le applicazioni IA

La cybersecurity è un tema centrale dell’AI Act, tanto che il legislatore ha dedicato un articolo volto a regolamentare la cybersecurity per le soluzioni ad alto rischio (Art. 15). L’articolo 15 sottolinea l’importanza della robustezza dei sistemi di IA ad alto rischio contro tentativi di manipolazione da parte di terzi non autorizzati, che potrebbero alterarne l’uso, i risultati o le prestazioni. Questa resilienza richiede soluzioni tecniche mirate a migliorare la cybersecurity. Metodi statistici, formali ed empirici rispondono a questa esigenza, offrendo una vasta gamma di metriche di robustezza, misure di testing delle performance e metodologie di benchmarking per rafforzare i sistemi e mitigare i rischi associati.

A partire da questi metodi per verificare la robustezza di un sistema di IA, l’AI Act raccomanda l’adozione di soluzioni tecniche per affrontare vulnerabilità specifiche dell’IA, tra cui misure per prevenire, rilevare, rispondere, risolvere e controllare attacchi come il data poisoning e gli adversarial attacks. Vista la gravità di queste minacce e il potenziale deterioramento delle performance dei modelli di IA, è cruciale concentrarsi su questi concetti al fine di prevenire danni alla comunità di stakeholder coinvolta nello sviluppo, rilascio ed uso di tali modelli.

Data poisoning

Gli attacchi di data poisoning rappresentano una forma sofisticata di minaccia informatica, che mira alla compromissione dell’integrità dei sistemi di IA introducendo deliberatamente dati contaminati nei loro processi di apprendimento. Ad esempio, un attaccante potrebbe avvelenare i dati di un sistema di riconoscimento facciale per far sì che identifichi erroneamente o non riconosca determinate persone o gruppi di persone, o manipolare i dati di un sistema di raccomandazione per promuovere o declassare determinati prodotti o servizi.

Questi esempi illustrano come gli attacchi di data poisoning possano minare la fiducia e l’affidabilità degli algoritmi di IA, compromettendo la loro capacità di prendere decisioni accurate e imparziali.

Come mitigare i rischi di data poisoning

La mitigazione degli attacchi di data poisoning richiede l’implementazione di pratiche rigorose per garantire la qualità dei dati. Una strategia fondamentale consiste nell’assicurare la validità, la coerenza e la diversità delle fonti di dati utilizzate per l’addestramento dei modelli di IA. Questo implica una selezione attenta e una verifica delle fonti per evitare l’uso di informazioni non affidabili o non controllate, come i feedback degli utenti o lo scraping web. Inoltre, è essenziale stabilire politiche di gestione dei dati robuste, utilizzando strumenti come la crittografia e l’autenticazione, per proteggere i dati da accessi non autorizzati. Questo approccio, che pone l’accento sull’integrità e la sicurezza dei dati, riduce significativamente il rischio di attacchi di data poisoning e migliora l’affidabilità dei sistemi di IA. Altrettanto importante è un controllo metodico e ricorsivo del sistema di IA per individuare potenziali attacchi di data poisoning, utilizzando misurazioni e strumenti appropriati per valutare e migliorare le prestazioni dei modelli. Tecniche come la pulizia dei dati e il rilevamento di comportamenti anomali possono essere impiegate per filtrare o mitigare l’impatto dei dati maligni o fuorvianti sui modelli di IA.

Adversarial attacks

Gli adversarial attacks utilizzano perturbazioni non percepibili dalla vista o udito umano per indurre un modello normalmente addestrato a emettere una previsione erronea. In base al livello di conoscenza che l’attaccante ha del modello sotto minaccia, gli attacchi avversari esistenti possono essere suddivisi in attacchi di:

  • White box: l’attaccante conosce tutte le informazioni sul modello, compresa la struttura e i parametri. Un esempio di white-box attack potrebbe essere l’aggiunta di piccole perturbazioni ad immagini visive in modo tale che un classificatore di immagini, addestrato per riconoscere oggetti in una scena, li identifichi erroneamente
  • Black-box: l’attaccante non sa nulla del modello; di solito l’attaccante deve simulare il modello. Ad esempio, un attaccante potrebbe utilizzare un processo di tentativi ed errori per generare input che causino una risposta errata da parte del modello di IA.
  • Grey-box: l’attaccante conosce solo alcuni parametri del modello. Un esempio di grey-box attack potrebbe essere l’uso di tecniche di trasferimento di conoscenza per adattare un attacco sviluppato su un modello simile ma non identico, sfruttando le somiglianze tra i modelli per ingannare il modello target.

Questi esempi mostrano come gli adversarial attacks possano essere sfruttati per ingannare i modelli di IA, indipendentemente dal livello di conoscenza che l’attaccante ha sul modello sotto attacco. La crescente consapevolezza di queste minacce ha reso fondamentale lo sviluppo di tecniche di difesa e di sicurezza per proteggere i sistemi di IA da tali attacchi.

Come mitigare i rischi di adversarial attacks

Tra i metodi più efficaci per contrastare gli attacchi avversari, vi è la verifica e la pulizia dei dati prima dell’input nel modello. Questo implica l’identificazione di anomalie, valori estremi o manipolazioni dannose che potrebbero influenzare le prestazioni o l’integrità del modello, utilizzando tecniche come il filtraggio, la normalizzazione e la trasformazione dei dati. Questa pratica riduce la probabilità di esempi avversari che potrebbero generare predizioni errate. Un’altra strategia consiste nell’addestrare il modello utilizzando esempi avversari, ovvero dati deliberatamente alterati per causare errori nel modello stesso. Questa pratica aumenta la robustezza del modello contro gli attacchi avversari. Infine, il monitoraggio costante degli output del modello è fondamentale per identificare eventuali anomalie o comportamenti inattesi. Questo processo implica il confronto degli output con i risultati desiderati e l’analisi degli stessi attraverso tecniche come il clustering e l’attribuzione, che consentono di individuare e correggere errori o manipolazioni dannose nel modello di IA.

Gli standard come guida alla mitigazione dei rischi alla cybersecurity

Se data poisoning e adversarial attacks pongono dei rischi concreti alla cybersecurity delle applicazioni di AI, un supporto nel guidare le strategie di mitigazione dei rischi è offerto dagli standard in questo ambito. Un esempio di standard utile a gestire i rischi posti dalla cybersecurity è l’”AI Risk Management Framework” prodotto dall’ente di standardizzazione americano NIST. Lo standard offre una guida per identificare, valutare, trattare e monitorare in generale i rischi legati alle applicazioni di AI, e in particolare i rischi legati alla cybersecurity. Per quanto riguarda i rischi cyber, lo standard offre un quadro di gestione per: (i) le caratteristiche di design tecnico della soluzione, come l’accuratezza, robustezza, consistenza e resilienza della souluzione IA; (ii) le caratteristiche socio-tecniche, come l’interpretabilità, la privacy, la gestione dei bias o sicurezza del sistema, presentando inoltre dei (iii) principi guida per l’utilizzo affidabile delle soluzioni AI, legati all’equità del sistema, la trasparenza e la gestione delle responsabilità umane.

Gli standard per i test di sicurezza per le soluzioni di AI

Riguardo invece agli standard per i test di sicurezza per le soluzioni di AI, il gruppo di lavoro di ETSI, ente di standardizzazione europeo, ha delineato diverse metodologie per migliorare la cybersecurity dei sistemi AI. Innanzitutto, il testing della sicurezza dell’IA si concentra sulla creazione di test per individuare eventuali vulnerabilità, valutando la risposta della soluzione a diversi dati input e la sua capacità di gestire richieste di grandi dimensioni, oltre alla sua resilienza contro tentativi di manipolazione. Un secondo punto riguarda la definizione di criteri di adeguatezza del test, per verificare la sicurezza dell’IA. Questi permettono di valutare quando il testing è sufficiente, prendendo in considerazione il numero di vulnerabilità individuate e l’allineamento del comportamento dell’IA con le aspettative durante il testing. Questi criteri sono essenziali per tracciare il progresso nella cybersecurity e per determinare il momento appropriato per concludere un test di sicurezza. Infine, è da notare l’importanza dei security test oracles, poiché questi determinano se un test ha avuto successo o meno, verificando gli output dell’IA rispetto ai risultati attesi e monitorando il suo comportamento per eventuali anomalie.

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati

Articolo 1 di 4