intelligenza artificiale

Neural Language Model: i misteri dell’AI che comprende e produce linguaggio



Indirizzo copiato

I modelli neurali del linguaggio (NLM) rappresentano un punto di rottura formidabile: per la prima volta la prerogativa ritenuta unica ed eccezionale dei soli esseri umani, il linguaggio, va spartito con entità che non solo non sono umane, ma nemmeno viventi. Ma in che modo queste entità artificiali sono divenute in possesso di una facoltà paragonabile alla nostra è ancora…

Pubblicato il 25 ott 2023

Alessio Plebe

Università degli Studi di Messina



intelligenze artificiali

Per grandi linee i fenomeni di cui siamo testimoni e che ci affascinano, rientrano in due possibili categorie: naturali o prodotti dall’uomo. Nei primi ritroviamo la radiazione emessa dalle stelle, sole incluso, o la vita di una cellula biologica. Tra i secondi vi sono i robot che passeggiano su Marte o la risonanza magnetica al cervello.

A metà strada stanno quegli strani oggetti che sono i modelli neurali del linguaggio, da qui in poi indicati con l’acronimo NLM (Neural Language Model).

Non ci sono dubbi che vengano prodotti dall’uomo, in particolare da informatici di OpenAI o Google o altri centri. Tuttavia, né i loro progettisti né chiunque altro – al momento – sanno dare una spiegazione ragionevole del perché siano in grado di padroneggiare il linguaggio naturale.

In principio fu il Transformer

Per carità, non è certamente il primo e unico caso, in diverse occasioni l’uomo si è ritrovato fra le mani qualche meravigliosa realizzazione per caso, senza saper spiegare come esserci arrivato. Gli alchimisti erano riusciti a produrre un metallo come l’antimonio e un alcol come il metanolo. In questi casi non solo non avevano la più pallida idea di come fosse successo, ma le spiegazioni che pretendevano di fornire erano sbagliate e fondate su una concezione dei materiali completamente falsa.

Ashish Vaswani, il giovane ricercatore indiano formatosi in informatica all’università di Mesra, e poi spostatosi in California dove ha conseguito il dottorato, avrà sicuramente, come qualunque suo collega, nutrito l’ambizione di sviluppare modelli destinati al successo. Ma né lui né i suoi collaboratori del Google Brain team potevano mai immaginare che la loro invenzione del 2017, il Transformer, avrebbe trascinato l’Intelligenza Artificiale (IA) a padroneggiare il linguaggio umano.

Il metodo di base usato da Vaswani e colleghi nel plasmare le reti neurali artificiali non differisce da quello impiegato dagli alchimisti del passato, allora nascosta dietro pagine e pagine di inutili suggestioni mistiche, oggi del tutto trasparente: l’euristica. Ovvero escogitare continuamente, per risolvere un problema, nuove direzioni in cui si combinano intuizioni e informazioni da pregressi fallimenti o barlumi di successo. Le euristiche differiscono dalle derivazioni di tipo matematico, e tipicamente fanno uso di formulazioni estremamente semplici, diametralmente opposte rispetto alla sofisticazione delle teorie matematiche contemporanee. Il poderoso impeto alla ricerca in IA negli ultimi dieci anni avrà prodotto nei centri di ricerca pubblici e privati del mondo milioni di euristiche di ogni genere, per qualunque ambito di impiego dell’IA. Di quasi tutte queste non sentiremo mai parlare, perché non sono risultate fruttuose, una minuscola proporzione raggiunge le riviste scientifiche, e ne basta solo una che funzioni talmente bene come il Transformer, per rivoluzionale gli scenari.

Il sogno di dotare i computer di capacità linguistiche

Lo sviluppo del Transformer mirava ad una precisa applicazione: la traduzione automatica, certamente non una applicazione di secondo piano, ma ben più limitata rispetto alla padronanza complessiva del linguaggio naturale dei sistemi derivati dal Transformer dal 2017 ad oggi, Dotare i computer di capacità linguistiche è stato un sogno accarezzato fin dai loro albori, sapientemente enucleato nel mitico “test di Turing”, e tenacemente perseguito per oltre mezzo secolo dall’ambito di studi noto come Natural Language Processing (NLP). Le profonde e dettagliate ricerche condotte nel NLP hanno avuto soprattutto il merito di evidenziare le innumerevoli complessità insite nel linguaggio, e quanto sia arduo tentare di risolverle nei computer, che infatti fino a prima del Transformer non avevano nemmeno una lontana parvenza di prestazioni confrontabili con l’uomo.

A differenza dei NLM, gli strumenti via via realizzati dal NLP per gestire aspetti ben circoscritti del linguaggio, non avevano nulla di misterioso. Jay Earley poteva descrivere in maniera esatta come funzionava il suo parser del 1970, uno dei primi software in grado di assegnare le categorie grammaticali delle parole in una frase. Allo stesso modo Shalom Lappin e Herbert Leass non avrebbero avuto difficoltà a spiegare filo per segno il loro sofisticato algoritmo del 1994 per riconoscere i riferimenti anaforici di pronomi, o Alex Lascarides e Nicholas Asher a dettagliare il loro modello SDRPT del 2003, ultimo grido per l’individuazione di entità del discorso in più frasi. I NLM non solo producono un balzo in avanti impressionante rispetto al NLP, lo realizzano senza incorporare nulla dell’imponente mole di analisi e algoritmi solutivi su aspetti singoli del linguaggio, accumulati dal NLP. Anzi, se comparate con qualunque algoritmo di NLP, le architetture Transformer sono di una semplicità disarmante.

Occorre dire che non si tratta di un mistero isolato, i NLM fanno parte della grande famiglia del Deep Learning (reti neurali artificiali con molti strati, DL da ora in poi), a sua volta privo di una conclamata spiegazione del suo successo, in particolare del salto di prestazioni nel transitare dalle reti neurali artificiali degli anni ’80 (caratterizzate da tre soli strati) a quelle con tanti strati. L’indecifrabilità dei modelli DL li accomuna al cervello, da cui hanno preso ispirazione. Nonostante l’impressionante progresso delle neuroscienze nel secolo scorso, per la maggior parte delle funzioni cognitive non esistono spiegazioni su come siano realizzate dai neuroni biologici. Sono disponibili numerose ed importanti informazioni sulla localizzazione di funzioni, nonché sulle loro connessioni con altre parti del cervello, ma quali calcoli neurali conducano a tali funzioni rimane in genere sconosciuto. Tra le pochissime eccezioni possiamo citare la visione a basso livello, e la rappresentazione di luoghi nell’ippocampo. Tuttavia, non saper spiegare le reti neurali artificiali è ben più imbarazzante del capire poco il cervello: anzitutto sono incomparabilmente più semplici, e poi dovrebbero far parte dei fenomeni artificiali, per i quali il problema della spiegazione normalmente non si pone.

Tentare di spiegare come funzionino diventa ancor più impellente nel caso del NLM, che minano all’ultima risorsa per cui ci sentiamo eccezionali nel mondo, il linguaggio. Se dobbiamo condividerla con artefatti informatici, almeno vorremo sapere come sia possibile.

In diversi hanno avvertito questa esigenza, e i tentativi di porre rimedio al vuoto di spiegazione si moltiplicano, anche se al momento con risultati molto preliminari e limitati. Le direzioni di ricerca sono disparate, si sono delineate qui a seguito in tre tipi diversi di spiegazione.

Psicologia per NLM

Un modo per tentare di farsi un’idea di come sia possibile la produzione linguistica di un NLM, è di rifarsi ai principi della scienza cognitiva, secondo cui le capacità cognitive di una persona, che trovano piena realizzazione nelle sue espressioni linguistiche, sono il prodotto di ciò che chiamiamo informalmente “mente”.

L’analisi della produzione linguistica in funzione del contesto entro cui viene stimolato, consente di far luce sui vari meccanismi mentali. Da mezzo secolo la scienza cognitiva – e da ancor prima la psicologia – ha affinato nel tempo un formidabile repertorio di protocolli per analizzare empiricamente una moltitudine di funzioni cognitive. Non tutti, ma una rilevante parte di questi protocolli consistono esclusivamente in interazioni di tipo linguistico tra lo sperimentatore e il soggetto umano. Ecco, quindi, l’idea di scrutare la misteriosa mente dei NLM “fingendo” che siano dei soggetti umani, e sottoponendoli ad esperimenti, impiegando i consolidati strumenti metodologici della psicologia.

In modo preteorico diversi studi si sono mossi effettivamente lungo questa strada, ma una sua esplicita proposizione e giustificazione teorica è stata per la prima volta formulata da Thilo Hagendorff, che dirige il gruppo di ricerca sull’etica nell’IA generativa presso l’università di Stoccarda. Il quale ha anche dato un nome a questo nuovo vero e proprio filone scientifico: Machine Psychology. Per Hagendorff la Machine Psychology è allo stesso tempo una proposta teoricamente coerente, e anche un contenitore per caratterizzare un fenomeno già in atto, anche se finora frammentario: vi sono già alcuni esempi che rientrano pienamente in questa nuova pratica.

Il tracciamento di entità del discorso

Per esempio, una funzione psicolinguistica particolarmente rilevante è quella etichettata come tracciamento di entità del discorso, essenziale per la comunicazione linguistica sociale, che comprende un numero di distinte abilità, come l’individuazione dell’inserimento di entità nuove in un discorso, la risoluzione delle co-referenze, e il tracciamento di cambi di stato delle varie entità di discorso. Recentemente sono stati realizzati degli esperimenti, derivati direttamente da quelli classici in psicolinguistica, per verificare se NLM posseggano, e in che misura, la capacità di tracciamento di entità del discorso. Tra i vari NLM analizzati solamente GPT-3.5 dimostra un buon livello di questa funzione.

L’induzione di proprietà

Una funzione prettamente mentale è quella nota come induzione di proprietà, costitutiva del ragionamento induttivo, e la sua comparsa nei bambini demarca un momento importante dello sviluppo delle loro capacità cognitive. Questa funzione consiste nel saper estendere o meno certe proprietà, sicuramente possedute da certe categorie di oggetti, ad altre categorie. Anche per l’induzione di proprietà esistono consolidati protocolli sperimentali messi a punto per esseri umani, a cui sono stati sottoposti diversi NLM. Di questi GPT-4 è quello che ha fornito risultati molto vicini a quelli ottenuti da soggetti umani.

La teoria della mente

Particolarmente interessante è il caso della teoria della mente, la capacità di costruirsi un’idea di quali siano le credenze e i ragionamenti di altre persone con cui interagiamo. Viene considerato elemento centrale della cognizione sociale e dell’autocoscienza. Michal Kosinski dell’università di Stanford ha intrapreso per primo uno studio sistematico sulla possibilità che i NLM siano dotati di un certo grado di teoria della mente, impiegando i classici test di falsa credenza impiegati nei bambini. I risultati hanno mostrato che GPT-1 non possedeva nessuna teoria della mente, GPT-3 nella versione 2020 dava qualche risultato ma decisamente scarso, mentre la versione del gennaio 2022 superava il 70% dei test, e il modello davinci-003 del novembre 2022 ne risolveva ben il 93%. Naturalmente le diverse versioni di GPT non erano affatto dedicate a raffinare questo specifico comportamento, ma erano un generico aumento della sua parametrizzazione; pertanto, Kosinski può correttamente speculare sulla teoria della mente come una sorta di proprietà emergente dal raffinamento delle capacità linguistiche. È stato davvero sorprendente constatare segni di teoria della mente nei NLM, conseguentemente vi sono stati immediati tentativi di repliche, con risultati divergenti, e ne è nato un vero e proprio piccolo filone di ricerca a se stante.

NLM e cervello

L’ultima cosa che hanno pensato Vaswani e gli altri ricercatori da lui guidati è di prendere qualche ispirazione dal cervello, nell’ideare il Transformer, e sarebbe stato improbabile vista la loro formazione prettamente informatica, senza nessuna conoscenza di neuroscienze. Tuttavia, vi è stato chi, a posteriori, ha voluto verificare se vi fosse per caso qualche similarità tra come cervello e NLM processano il linguaggio. C’era un clamoroso precedente che giustificava queste curiosità: anche i modelli DL per la visione avevano avuto una storia progettuale esclusivamente ingegneristica, ma studi successivi hanno rivelato una sorprendente similarità tra le attivazioni dei livelli di reti neurali convolutive, e quelle di aree visive umane. Tuttavia, nel caso della visione sussistevano delle vaghe similarità tra i meccanismi delle reti convolutive e alcuni processi che avvengono nelle aree visive a basso livello, noti fin dagli anni ’70. Nel caso del linguaggio non solo non esiste nulla nei Transformer che imiti intenzionalmente qualcosa del cervello, ma non c’è proprio nessun meccanismo computazionale nel cervello altrettanto noto e compreso come per la visione da poter essere imitato. Eppure, i fatti si stanno dimostrando davvero sorprendenti, smentendo le aspettative.

Il dataset Narratives

La base tecnica che ha reso possibili questi confronti è stato il dataset Narratives realizzato presso l’istituto di neuroscienze di Princeton, che raccoglie quasi 900 immagini fMRI in oltre 300 soggetti, mentre ascoltavano 27 diverse brevi storie. Le immagini erano temporalmente sincronizzate sia alle varie parole che componevano i racconti, sia al dettaglio dei fonemi che si succedevano nel tempo.

I primi ad usare Narratives per mettere cervelli e NLM uno di fronte all’altro sono stati ricercatori dell’università di Parigi-Saclay in collaborazione con Meta AI, guidati da Jean-Rémi King. Inizialmente hanno impiegato una mappatura lineare tra le attivazioni dei neuroni (artificiali) in GPT-2, nel momento in cui forniva la previsione per la prossima parola, e i valori dei voxel nell’istante in cui veniva ascoltata la stessa parola. I risultati mostrarono una scarsa correlazione per le aree cerebrali coinvolte nei processi a basso livello, uditivo e fonologico, ma una correlazione significativa per aree di elaborazione semantica, come il giro superiore frontale, e il giro posteriore supero-temporale.

In uno studio successivo hanno verificato se l’ampiezza della finestra di attenzione usata da GPT-2 nel predire la prossima parola, conducesse a correlazioni differenti nel cervello, ed è risultato che in maniera sistematica, i legami tra parole calcolati dal meccanismo attentivo del NLM, correlano maggiormente con le aree corticali frontoparietali quando si tratta di legami distanti, e con le aree temporali quando riguardavano parole ravvicinate.

Lo stesso istituto di neuroscienze di Princeton che ha creato il dataset lo ha impiegato per altri tipi di indagine, soprattutto su possibili correlazioni tra aree cerebrali e porzioni delle matrici che mantengono il meccanismo attentivo nel NLM. Ne sono emerse inaspettate correlazioni, per esempio le componenti dell’attenzione nei NLM che predicono l’esistenza di una relazione con un soggetto nominale correlano con il giro medio-frontale e non con la porzione dorso-mediale della corteccia prefrontale; la relazione con l’oggetto di una proposizione ben correla con la corteccia supero-temporale posteriore; la relazione con l’oggetto diretto di un verbo è fortemente correlata con il giro angolare e in modo debole con la parte ventro-mediale della corteccia prefrontale.

Spiegazioni meccanicistiche

È sicuramente illuminante scoprire che i NLM realizzano in qualche misura alcune delle funzioni cruciali studiate in psicologia e scienze cognitive, Ma non ci dice nulla su come questo succeda, tra i semplici calcoli neurali realizzati nel Transformer e le funzioni prima descritte vi è un abisso esplicativo. Forse ancor più intrigante è scoprire che qualcosa che succede nei NLM va di pari passo con qualcos’altro che si verifica nel cervello quando si processa la stessa narrazione. Ma qui non solo non si inizia a capire qualcosa, forse il mistero addirittura si infittisce. Sapere che in modo sistematico le relazioni con un soggetto nominale attivate nelle matrici di attenzione di un NLM vanno a braccetto con giro medio-frontale, ma non con la porzione dorso-mediale della corteccia prefrontale, non solo non ci spiega come faccia il NLM a identificare le relazione con soggetti nominali, ci pone l’ulteriore interrogativo su come mai le sue attivazioni assomiglino ai segnali circolanti nel giro medio-frontale del cervello.

Se torniamo ai fenomeni del mondo naturale, uno dei generi di spiegazione più apprezzabile è quello denominato meccanicistico, che consiste nell’identificare parti, in un sistema complesso, responsabili del fenomeno sotto indagine, e di studiare quali relazioni tra tali parti siano in grado di dar luogo al fenomeno. I termini meccanicistici sono quelli che più soddisfano nel dar conto di come si realizzino fenomeni naturali, soprattutto nel campo della biologia e delle neuroscienze. Ed è il tipo di spiegazione che sarebbe auspicabile per i NLM, si ravvedono dei primissimi tentativi di percorrere questa impervia strada.

Meritano menzione soprattutto gli studi condotti dal team di Anthropic, un’azienda della Silicon Valley di spicco per ricerche avanzate in AI. La loro strategia è andare a caccia di “circuiti”, ovvero minime configurazioni di neuroni che realizzano qualche fenomeno elementare, che possa costituire un piccolo tassello nella grande impresa di comprendere e gestire il linguaggio.

Paragonano la strategia circuitale all’invenzione del microscopio nel Settecento, che aprì le porte alla biologia cellulare. Il gruppo in Anthropic diretto da Nelson Elhage ha messo in pratica la strategia circuitale, partendo dal minimo numero possibile di componenti di un Transformer, iniziando da un solo strato e un solo gruppo attentivo, cercando via via di individuare “parti”, in questo caso componenti matematiche, potenzialmente responsabili di qualche fenomeno interessante. È stato nel passare da uno a due strati che un fenomeno è emerso, denominato induction head. Consiste nel predire una parola B quando la parola corrente è A, se nella sequenza di parole precedenti si è verificata la stessa successione AB.

Probabilmente chiunque sia incuriosito dai misteri della mente artificiale che comprende e produce linguaggio, troverà poco serio chiamare “interessante” un fenomeno cosı̀ elementare, e non si può certo dargli torto. La scoperta va comunque valorizzata per due motivi. Anzitutto per questo fenomeno è stato individuato in modo preciso il meccanismo che lo realizza, con certe “parti” matematiche derivate dalle matrici che calcolano le attivazioni dell’attenzione nei due livelli di questo mini-Transformer. Inoltre, lo stesso gruppo–stavolta con prima autrice Catherine Olsson–ha studiato la stretta correlazione tra induction head e l’emergere di un fenomeno di ben più alto livello, conosciuto come in-context learning.

E’ il fenomeno per cui, più si aggiunge un ricco contesto nell’interrogare un NLM, e più perspicue risultano le sue risposte. Questo costituisce un forte sintomo di una sorta di “pensiero” che guida la produzione linguistica del NLM. Si è ben lontani da produrre una catena causale che dal fenomeno induction head conduca al in-context learning, però Olsson e coautori hanno studiato come, in modelli Transformer completi, l’emergere del in-context learning durante l’addestramento, coincida precisamente con l’emergere del fenomeno induction head.

Conclusioni

Tirando le somme sui tentativi descritti per venire a capo del mistero dei NLM, si può dire che questi iniziali barlumi di luce intaccano poco il profondo buio che permane. Sono significativi soprattutto come recepimento dell’impellenza di indagare i NLM, e di quanto sia importante arrivare a delle spiegazioni.

Non lasciare nessun fenomeno importante privo di spiegazioni è il nobile imperativo che ha sempre alimentato l’attività scientifica nell’uomo, ma in questo caso c’è di più. I NLM rappresentano un punto di rottura culturale formidabile, per la prima volta la prerogativa ritenuta unica ed eccezionale dei soli esseri umani, il linguaggio, va spartito con entità che non solo non sono umane, ma nemmeno viventi. L’inevitabile inquietudine che questo passaggio sta comportando, potrebbe essere mitigata se, almeno, si potesse essere in grado di spiegare come entità artificiali siamo divenute in possesso di una facoltà del linguaggio paragonabile alla nostra.

Speciale PNRR

Tutti
Incentivi
Salute digitale
Formazione
Analisi
Sostenibilità
PA
Sostemibilità
Sicurezza
Digital Economy
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr
CODICE STARTUP
Imprenditoria femminile: come attingere ai fondi per le donne che fanno impresa
DECRETI
PNRR e Fascicolo Sanitario Elettronico: investimenti per oltre 600 milioni
IL DOCUMENTO
Competenze digitali, ecco il nuovo piano operativo nazionale
STRUMENTI
Da Istat e RGS gli indicatori per misurare la sostenibilità nel PNRR
STRATEGIE
PNRR – Piano nazionale di Ripresa e Resilienza: cos’è e novità
FONDI
Pnrr, ok della Ue alla seconda rata da 21 miliardi: focus su 5G e banda ultralarga
GREEN ENERGY
Energia pulita: Banca Sella finanzia i progetti green incentivati dal PNRR
TECNOLOGIA SOLIDALE
Due buone notizie digitali: 500 milioni per gli ITS e l’inizio dell’intranet veloce in scuole e ospedali
INNOVAZIONE
Competenze digitali e InPA cruciali per raggiungere gli obiettivi del Pnrr
STRATEGIE
PA digitale 2026, come gestire i fondi PNRR in 5 fasi: ecco la proposta
ANALISI
Value-based healthcare: le esperienze in Italia e il ruolo del PNRR
Strategie
Accordi per l’innovazione, per le imprese altri 250 milioni
Strategie
PNRR, opportunità e sfide per le smart city
Strategie
Brevetti, il Mise mette sul piatto 8,5 milioni
Strategie
PNRR e opere pubbliche, la grande sfida per i Comuni e perché bisogna pensare digitale
Formazione
Trasferimento tecnologico, il Mise mette sul piatto 7,5 milioni
Strategie
PSN e Strategia Cloud Italia: a che punto siamo e come supportare la PA in questo percorso
Dispersione idrica
Siccità: AI e analisi dei dati possono ridurre gli sprechi d’acqua. Ecco gli interventi necessari
PNRR
Cloud, firmato il contratto per l’avvio di lavori del Polo strategico
Formazione
Competenze digitali, stanziati 48 milioni per gli Istituti tecnologici superiori
Iniziative
Digitalizzazione delle reti idriche: oltre 600 milioni per 21 progetti
Competenze e competitività
PNRR, così i fondi UE possono rilanciare la ricerca e l’Università
Finanziamenti
PNRR, si sbloccano i fondi per l’agrisolare
Sanità post-pandemica
PNRR, Missione Salute: a che punto siamo e cosa resta da fare
Strategie
Sovranità e autonomia tecnologica nazionale: come avviare un processo virtuoso e sostenibile
La relazione
Pnrr e PA digitale, l’alert della Corte dei conti su execution e capacità di spesa
L'editoriale
Elezioni 2022, la sfida digitale ai margini del dibattito politico
Strategie
Digitale, il monito di I-Com: “Senza riforme Pnrr inefficace”
Transizione digitale
Pnrr: arrivano 321 milioni per cloud dei Comuni, spazio e mobilità innovativa
L'analisi I-COM
Il PNRR alla prova delle elezioni: come usare bene le risorse e centrare gli obiettivi digitali
Cineca
Quantum computing, una svolta per la ricerca: lo scenario europeo e i progetti in corso
L'indice europeo
Desi, l’Italia scala due posizioni grazie a fibra e 5G. Ma è (ancora) allarme competenze
L'approfondimento
PNRR 2, ecco tutte le misure per cittadini e imprese: portale sommerso, codice crisi d’impresa e sismabonus, cosa cambia
Servizi digitali
PNRR e trasformazione digitale: ecco gli investimenti e le riforme previste per la digitalizzazione della PA
Legal health
Lo spazio europeo dei dati sanitari: come circoleranno le informazioni sulla salute nell’Unione Europea
Servizi digitali
PNRR e PA digitale: non dimentichiamo la dematerializzazione
Digital Healthcare transformation
La trasformazione digitale degli ospedali
Governance digitale
PA digitale, è la volta buona? Così misure e risorse del PNRR possono fare la differenza
Servizi digitali
Comuni e digitale, come usare il PNRR senza sbagliare
La survey
Pnrr e digitale accoppiata vincente per il 70% delle pmi italiane
Missione salute
Fascicolo Sanitario Elettronico alla prova del PNRR: limiti, rischi e opportunità
Servizi pubblici
PNRR: come diventeranno i siti dei comuni italiani grazie alle nuove risorse
Skill gap
PNRR, la banda ultra larga crea 20.000 nuovi posti di lavoro
Il Piano
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUMPA2022
PNRR e trasformazione digitale: rivedi i Talk di FORUM PA 2022 in collaborazione con le aziende partner
I contratti
Avio, 340 milioni dal Pnrr per i nuovi propulsori a metano
Next Generation EU
PNRR, a che punto siamo e cosa possono aspettarsi le aziende private
Fondi
Operativo il nuovo portale del MISE con tutti i finanziamenti per le imprese
Servizi comunali
Il PNRR occasione unica per i Comuni digitali: strumenti e risorse per enti e cittadini
Healthcare data platform
PNRR dalla teoria alla pratica: tecnologie e soluzioni per l’innovazione in Sanità
Skill
Competenze digitali, partono le Reti di facilitazione
Gli obiettivi
Scuola 4.0, PNRR ultima chance: ecco come cambierà il sistema formativo
Sistema Paese
PNRR 2, è il turno della space economy
FORUM PA 2022
FORUM PA 2022: la maturità digitale dei comuni italiani rispetto al PNRR
Analisi
PNRR: dalla Ricerca all’impresa, una sfida da cogliere insieme
Innovazione
Pnrr, il Dipartimento per la Trasformazione digitale si riorganizza
FORUM PA 2022
PA verde e sostenibile: il ruolo di PNRR, PNIEC, energy management e green public procurement
Analisi
PNRR, Comuni e digitalizzazione: tutto su fondi e opportunità, in meno di 3 minuti. Guarda il video!
Rapporti
Competenze digitali e servizi automatizzati pilastri del piano Inps
Analisi
Attuazione del PNRR: il dialogo necessario tra istituzioni e società civile. Rivedi lo Scenario di FORUM PA 2022
Progetti
Pnrr, fondi per il Politecnico di Torino. Fra i progetti anche IS4Aerospace
Analisi
PNRR, Colao fa il punto sulla transizione digitale dell’Italia: «In linea con tutte le scadenze»
La Svolta
Ict, Istat “riclassifica” i professionisti. Via anche al catalogo dati sul Pnrr
Analisi
Spazio, Colao fa il punto sul Pnrr: i progetti verso la milestone 2023
FORUM PA 2022
Ecosistema territoriale sostenibile: l’Emilia Romagna tra FESR e PNRR
Il Piano
Innovazione, il Mise “centra” gli obiettivi Pnrr: attivati 17,5 miliardi
Analisi
PNRR: raggiunti gli obiettivi per il primo semestre 2022. Il punto e qualche riflessione
Analisi
PNRR: dal dialogo tra PA e società civile passa il corretto monitoraggio dei risultati, tra collaborazione e identità dei luoghi
Webinar
Comuni e PNRR: un focus sui bandi attivi o in pubblicazione
Analisi
Formazione 4.0: cos’è e come funziona il credito d’imposta
PA e Sicurezza
PA e sicurezza informatica: il ruolo dei territori di fronte alle sfide della digitalizzazione
PA e sicurezza
PNRR e servizi pubblici digitali: sfide e opportunità per Comuni e Città metropolitane
Water management
Water management in Italia: verso una transizione “smart” e “circular” 
LE RISORSE
Transizione digitale, Simest apre i fondi Pnrr alle medie imprese
Prospettive
Turismo, cultura e digital: come spendere bene le risorse del PNRR
Analisi
Smart City: quale contributo alla transizione ecologica
Decarbonizzazione
Idrogeno verde, 450 milioni € di investimenti PNRR, Cingolani firma
Unioncamere
PNRR, imprese in ritardo: ecco come le Camere di commercio possono aiutare
I fondi
Industria 4.0: solo un’impresa su tre pronta a salire sul treno Pnrr

Articoli correlati

Articolo 1 di 4