intelligenza artificiale

ChatGPT è matematica non magia: ecco come funziona

ChatGPT non è magia, ma matematica molto avanzata. Semplifichiamo al massimo il funzionamento di questo sistema di Deep Learning per comprendere come funziona, dato che per molti sembra quasi una stregoneria

Pubblicato il 03 Feb 2023

Nanni Bassetti

Consulente informatico libero professionista - Digital Forensics Consultant

intelligenza artificiale pirateria

Tutti parlano di ChatGPT, ossia questo magnifico chatbot in grado di conversare su ogni argomento in tante lingue e fornire risposte sensate, lunghe e diverse.

Ma quello che vogliamo provare a illustrare qui è che ChatGPT non è magia, è matematica molto avanzata, è il tentativo dell’uomo di modellizzare con i numeri i processi che adottiamo per comprendere ed interagire col linguaggio.

ChatGPT, perché ora l’intelligenza artificiale ci stupisce e spaventa

Il funzionamento di ChatGPT, semplificato

Il Web è pieno di prompt, ossia questioni/quesiti da porre a ChatGPT, di ogni genere; infatti, questo sistema è in grado di scrivere testi nuovi, poesie, fare riassunti, parafrasi, traduzioni, creare anche una presentazione di slides su un argomento, scrivere codice informatico per creare software e tantissimo altro.

In quest’articolo proverò a semplificare al massimo il funzionamento di questo sistema di Deep Learning, branca dell’Intelligenza Artificiale (IA), per comprendere come funziona, dato che per molti sembra quasi una stregoneria.

How ChatGPT actually works

How ChatGPT actually works

Guarda questo video su YouTube

Su come sono strutturate le cosidette “IA” c’è molta letteratura e video per ogni livello culturale, in sintesi i modelli di IA (Machine Learning, Deep Learning), si basano su una fase di addestramento su dei dataset (enormi banche di dati) e poi, grazie a complicati algoritmi matematici, riescono a “prevedere” un risultato per un nuovo input di dati a loro sconosciuti.

Tutto questo si fa per approssimazione, statistica, probabilità, il che rende un dato nuovo più vicino ad un dato conosciuto; da qui la foto di una pantera ha delle caratteristiche più vicine ad un gatto che ad un cane, ed ecco che una CNN (Convolutional Neural Network) potrebbe classificare la foto della pantera come quella di un gatto.

Così anche per altre cose, tipo testi, numeri, audio, ecc..

Le reti generative

Ma arriviamo alle reti generative; queste nascono con l’intento di creare qualcosa di nuovo; quindi, partono da un dato sconosciuto e, tramite delle particolari reti come le RNN (Recursive Neural Network) o le GAN (Generative Adversarial Network), riescono a generare un qualcosa che potrebbe essere classificato da qualcosa già imparato dalla rete.

Facciamo un esempio con una GAN:

  • Un’immagine casuale viene generata da una rete che chiameremo “Generatore
  • Il Generatore ha il compito di ingannare una rete avversaria chiamata Discriminatore e fargli credere che il dato da lui generato possa essere un qualcosa che il Discriminatore ha già “imparato”, ad esempio un volto umano.
  • Il Discriminatore valuta l’input fornitogli dal Generatore e gli fornisce un punteggio, chiamiamolo di “plausibilità”, oppure un punteggio di “perdita”.
  • Il Generatore allora migliorerà il proprio input da passare al discriminatore, magari migliorando l’immagine.
  • Quando il Discriminatore sarà ingannato a dovere, quindi giudicherà quell’input abbastanza bene da poter dire che è un volto, allora l’immagine sarà generata e fornita in output.

Ecco che la GAN ha creato un volto umano dal nulla, il volto di una persona inesistente nel mondo; con questo stesso sistema si possono creare anche suoni e testi, ecc..

Per l’NLP (Natural Language Processing), l’IA applicata ai testi ed al linguaggio naturale, ci sono tante soluzioni, come le Bag Of Words, le RNN, LSTM, ecc.. Ma sono limitate a classificazioni o a ridotte previsioni di testo successivo e sono lente, perché sequenziali e non riescono a trattare lunghe sequenze di testo.

Arrivano i Transformers

Il modello Transformer è un tipo di rete neurale utilizzata per il natural language processing (NLP). È stato introdotto nel 2017 da Google in un articolo scientifico intitolato “Attention Is All You Need[3].

Il modello Transformer si differenzia dalle reti neurali tradizionali perché utilizza l’attenzione per elaborare il testo ed è principalmente composto da strati di Encoders (codificatori) e strati di Decoders (decodificatori).

L’attenzione consente al modello di concentrarsi su parti specifiche del testo mentre lo elabora, permettendogli di capire meglio il contesto e di generare risposte più appropriate; è stato utilizzato con successo in molte applicazioni NLP, come la traduzione automatica, la generazione e la classificazione del testo ed è stato applicato in sistemi come BERT, GPT-2 e GPT-3 e ChatGPT.

In sintesi, è una tecnica utilizzata per identificare quali parti di un input sono più rilevanti per la generazione di un output.

Vediamo i vari step che utilizza il modello Transformer:

Immaginiamo di avere la frase “il gatto è sul” e vogliamo completarla utilizzando un modello Transformer; elenchiamo i vari passaggi che il modello potrebbe seguire:

  • Tokenizzazione: Il primo passo è quello di dividere la frase in token, ovvero singole parole; in questo caso, la frase sarebbe divisa in [“il”,”gatto”,”è”,”sul”]
  • Embedding: Ogni parola viene convertita in un vettore numerico, chiamato embedding, in modo che il modello possa lavorare con esso e rappresenta la parola in uno spazio numerico e viene utilizzato per l’elaborazione dei dati.
  • Positional Encoding: In questo passaggio il modello utilizza una tecnica chiamata “positional encoding” per tenere conto dell’ordine delle parole nella frase, ciò significa che il modello capisce che “il” è all’inizio della frase e “sul” è alla fine. Per implementare il posizionamento delle parole, i modelli Transformer utilizzano un vettore di posizione per ogni parola in una frase. Il vettore di posizione è un vettore numerico che rappresenta la posizione relativa della parola all’interno della frase.
  • Multi-head attention: Il modello utilizza una tecnica chiamata “multi-head attention” (modello di self-attention a più teste) per calcolare l’attenzione tra le parole della frase. In questo caso, il modello calcolerà l’attenzione tra la parola “sul” e le altre parole della frase, come “il” e “gatto“, per capire meglio il contesto e il significato della parola “sul” e così per le altre parole componenti la frase. I vettori di attenzione generati da ciascuna testa vengono poi concatenati e sottoposti ad una nuova trasformazione per generare una rappresentazione globale dell’input.
  • Feed-forward layer: infine, il modello utilizza una rete neurale feed-forward per generare una risposta plausibile e coerente; in questo caso, il modello potrebbe generare la risposta “il gatto è sul tavolo” o “il gatto è sul letto” in base alla relazione tra le parole della frase e al contesto generale.

Figura 1 – Fonte: https://arxiv.org/pdf/1706.03762.pdf

In sintesi, i Transformers utilizzano una serie di trasformazioni e calcoli per comprendere il significato di una frase e generare una risposta plausibile e coerente.

Per generare una risposta lunga a partire da una domanda breve, il modello Transformer utilizza una combinazione di tecniche come la Language Modeling, la Multi-head Attention, il Fine-tuning e la Generazione Autoregressiva.

La Language Modeling permette di imparare a generare testo plausibile e coerente, mentre la Multi-head Attention consente di capire il contesto e il significato delle parole e delle frasi nella domanda.

Il Fine-tuning permette di adattare il modello ad un dataset specifico per generare risposte più pertinenti.

Infine, la Generazione Autoregressiva consente di generare frasi e paragrafi in modo autonomo, una parola alla volta, utilizzando le informazioni precedentemente generate.

Come funziona il sistema dell’attenzione

Ma cerchiamo di capire come funziona il sistema dell’”attenzione”, che è il cuore del modello Transformer.

Iniziamo con l’embedding, che sulla frase “il gatto è sul” potrebbe essere:

“il”: [0.1, 0.2, -0.3, 0.4, …]

“gatto”: [0.5, -0.1, 0.2, -0.3, …]

“è”: [-0.2, 0.3, 0.1, -0.4, …]

“sul”: [0.3, -0.2, 0.5, -0.1, …]

In questo esempio ogni parola è rappresentata da un vettore numerico di lunghezza n, chiamato embedding.

Gli embeddings vengono pre-calcolati, prima di essere utilizzati come input per il Transformer, utilizzando una grande quantità di dati di testo e un algoritmo di apprendimento automatico, tramite metodi come word2vect, GloVe, ecc..

Il modello utilizza questi embedding per capire il contesto e il significato delle parole e delle frasi nella domanda e generare una risposta pertinente.

Una dimensione di embedding più alta significa che il modello avrà più flessibilità per rappresentare le parole in uno spazio numerico, ma richiederà anche più memoria e potrebbe essere più difficile da addestrare.

In generale, una dimensione di embedding più alta consente al modello di rappresentare in modo più preciso le parole e i loro contesti, migliorando le prestazioni del modello. Tuttavia, una dimensione troppo alta può causare overfitting (scarsa capacità d’approssimazione) mentre una dimensione troppo bassa può causare una perdita di informazioni (underfitting).

Il modello Transformer dopo aver calcolato gli embedding della parole componenti la frase “il gatto è sul“, combina i vettori di embedding con i vettori di positioning per formare l’input da passare all’architettura di attenzione multi-testa (multi-head attention) per capire il contesto e il significato delle parole e delle frasi nella frase.

La tecnica di attenzione multi-testa funziona creando diverse “teste” che calcolano l’attenzione tra le parole della frase in modo indipendente.

Per la frase “il gatto è sul“, il modello potrebbe utilizzare tre multi-head attention:

  • La prima testa di attenzione potrebbe calcolare l’attenzione tra la parola “sul” e le altre parole della frase, come “il” e “gatto”, per capire meglio il contesto e il significato della parola “sul”.
  • La seconda testa di attenzione potrebbe calcolare l’attenzione tra la parola “gatto” e le altre parole della frase, per capire meglio il contesto e il significato della parola “gatto”.
  • La terza testa di attenzione potrebbe calcolare l’attenzione tra la parola “il” e le altre parole della frase, per capire meglio il contesto e il significato della parola “il”.

Dopo aver calcolato l’attenzione tra le parole della frase, le multi-head attentions combinano le loro risposte per generare una rappresentazione globale della frase, che tiene conto del contesto e del significato delle parole e viene utilizzata per generare una risposta plausibile e coerente alla domanda.

Il calcolo di una testa d’attenzione

Il calcolo di una testa d’attenzione si basa su tre componenti principali:

Query (Q): un vettore che rappresenta la parola o le parole per cui si sta cercando attenzione.

Key (K): un vettore che rappresenta la parola o le parole su cui si sta concentrando l’attenzione.

Value (V): un vettore che rappresenta l’informazione associata alla parola o alle parole chiave.

I vettori query, key e value vengono calcolati utilizzando tre diverse matrici di peso, una per ciascun componente; il modello quindi, calcola una matrice di attenzione utilizzando questi vettori; la matrice di attenzione generata determina la quantità di attenzione che ogni parola riceve da ogni altra parola nel testo di input.

Insomma, Q e K sono come la query che facciamo ai motori di ricerca e K le keywords che corrispondono meglio alla query.

Infine, c’è la rete neurale feedforward, che una volta che riceve in input la frase “il gatto è sul“, utilizza la rappresentazione globale della frase generata dalle multi-head attention per prevedere la prossima parola.

Il modello è stato addestrato su un grande dataset di testi; quindi ha già visto molte frasi simili o uguali a “il gatto è sul” e ha imparato a capire il contesto e il significato delle parole nella frase.

La rete neurale feedforward utilizza queste conoscenze per generare una distribuzione di probabilità per ciascuna parola del vocabolario, dove ciascuna parola ha una probabilità di essere la prossima parola nella frase. Inoltre, la rete feed-forward può essere utilizzata per eliminare le informazioni non rilevanti e mettere in evidenza le relazioni più importanti tra le parole nell’input, permettendo al modello di generare una risposta più precisa e pertinente.

Riepilogando, il modello Transformer utilizza la rappresentazione globale della frase generata dalle multi-head attention e dagli embeddings, che sono combinati con i vettori di posizione, per prevedere la prossima parola, utilizzando le conoscenze che ha acquisito durante l’addestramento su un grande dataset di testi, per capire il contesto e il significato delle parole e delle frasi nella frase e generare una distribuzione di probabilità per ciascuna parola del vocabolario.

Encoder e decoder

Tutto il meccanismo si sintetizza in una serie di Encoders e di Decoders.

Gli encoders sono utilizzati per codificare la frase in ingresso in una rappresentazione numerica, utilizzando le tecniche di embedding, multi-head attention e feed forward network; essi analizzano l’input e generano una rappresentazione numerica della frase che tiene conto del contesto e del significato delle parole/frasi contenute.

I decoders, invece, sono utilizzati per generare la risposta; essi utilizzano la rappresentazione numerica generata dagli encoders e il meccanismo dell’auto-attenzione (self-attention) per generare una distribuzione di probabilità per ciascuna parola del vocabolario, dove ciascuna di esse ha una probabilità di essere la prossima parola nella risposta o frase che devono generare. I decoders ricevono come input gli embeddings delle parole della frase o domanda, insieme alla rappresentazione globale della frase o domanda generata dalla matrice d’attenzione degli encoders; inoltre, utilizzano un meccanismo di auto-regressione per generare una risposta lunga a partire da una domanda breve. Quindi, i decoders applicano il meccanismo dell’attenzione per valutare ciò che stanno scrivendo in output, tenendo anche conto dell’input elaborato dagli encoders.

In sintesi, gli encoders sono utilizzati per codificare la frase in ingresso in una rappresentazione numerica, che viene usata dai decoders per generare la risposta.

Se volete divertirvi a creare un vostro piccolo GPT ecco poche righe di codice Python che utilizzano i Trasformers:

Immagine che contiene testo Descrizione generata automaticamente

Conclusioni

ChatGPT non è sicuramente perfetta ma la strada è aperta e prevedo che in pochi anni vedremo qualcosa di ancora più strabiliante.

P.S.: per scrivere questo articolo mi sono consultato con LEI/LUI…ChatGPT.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati

Articolo 1 di 3