scenari

L’AI del futuro: ecco le cinque principali aree di ricerca



Indirizzo copiato

L’evoluzione dell’IA si orienta verso l’autonomia, la multimodalità e la trasparenza, promuovendo accessibilità ed etica. Questi sviluppi interconnessi migliorano i sistemi per un futuro responsabile, integrando principi etici e garantendo benefici sociali e tecnici

Pubblicato il 22 gen 2025

Antonio Chella

Laboratorio di Robotica, dipartimento di Ingegneria Università degli Studi di Palermo



Strategia italiana per l’intelligenza artificiale 2024-2026

Lintelligenza artificiale sta vivendo una fase di straordinaria evoluzione, caratterizzata da innovazioni che stanno ridefinendo i confini di ciò che consideriamo possibile nel campo della computazione.

Vogliamo perciò esploare alcune aree fondamentali che stanno plasmando il futuro dell’IA: l’auto-apprendimento, la multimodalità, i sistemi di addestramento efficienti, la trasparenza dei ragionamenti e l’IA etica. Questi sviluppi non solo stanno ampliando le capacità tecniche dei sistemi artificiali, ma stanno anche sollevando importanti questioni sulla loro integrazione nella società e sul loro impatto sulla vita quotidiana.

L’auto-apprendimento: quando l’IA diventa autonoma nella ricerca della conoscenza

L’auto-apprendimento rappresenta una delle frontiere più affascinanti dell’intelligenza artificiale. Tradizionalmente, i sistemi di IA vengono addestrati su dataset accuratamente selezionati e preparati da esseri umani, un processo che richiede tempo, risorse e una significativa supervisione umana. Tuttavia, gli ultimi sviluppi stanno portando alla creazione di sistemi capaci di cercare autonomamente i dati necessari per il proprio apprendimento, aprendo nuove prospettive nel campo dell’intelligenza artificiale autonoma [1, 2].

Questi sistemi utilizzano sofisticati algoritmi di esplorazione che permettono loro di navigare in vasti spazi informativi, selezionando autonomamente i dati più rilevanti per il loro addestramento. Un esempio è rappresentato dai sistemi di web crawling intelligente, che non si limitano a raccogliere informazioni in modo indiscriminato, ma valutano la qualità e la pertinenza dei dati rispetto ai loro obiettivi di apprendimento [3]. Questa capacità di auto-selezione dei dati rappresenta un passo importante verso sistemi di IA più autonomi e adattivi.

L’auto-apprendimento non si limita alla semplice raccolta di dati, ma include anche la capacità di identificare schemi e relazioni significative senza supervisione umana. Questi sistemi possono scoprire autonomamente nuove categorie e classificazioni, evolvendosi continuamente in base alle informazioni che incontrano. Tale approccio sta rivoluzionando la ricerca scientifica, dove i sistemi di IA possono esplorare enormi database di pubblicazioni scientifiche, identificare collegamenti nascosti e suggerire nuove direzioni di ricerca.

Le sfide dell‘auto-apprendimento

Tuttavia, l’auto-apprendimento solleva importanti sfide. La qualità dei dati rimane un aspetto cruciale: un sistema che apprende autonomamente potrebbe basarsi su informazioni errate o distorte, perpetuando o amplificando pregiudizi esistenti. Inoltre, la capacità di questi sistemi di evolversi autonomamente solleva questioni sulla prevedibilità e controllabilità del loro comportamento. Sarà quindi fondamentale sviluppare meccanismi di controllo e validazione che garantiscano che l’apprendimento autonomo avvenga entro confini sicuri ed eticamente accettabili.

La multimodalità: verso un’intelligenza artificiale che integra diversi sensi

La multimodalità rappresenta un salto fondamentale nello sviluppo dell’intelligenza artificiale, avvicinando i sistemi artificiali alla complessità dell’esperienza umana. I sistemi multimodali sono sistemi in grado di integrare ed elaborare simultaneamente diverse forme di input – testo, immagini, suoni, dati tattili e altri tipi di sensori – creando una comprensione più ricca e contestualizzata dell’ambiente circostante [4,5,6].

Verso sistemi di IA più sofisticati e versatili

Questa evoluzione porterà alla creazione di sistemi di IA più sofisticati e versatili. Ad esempio, i moderni assistenti robotici potranno combinare la visione artificiale con il feedback tattile per manipolare oggetti con maggiore precisione, mentre i sistemi di diagnosi medica possono integrare immagini diagnostiche, dati clinici testuali e parametri biometrici per fornire valutazioni più accurate. La multimodalità non si limita alla semplice raccolta di dati da diverse fonti, ma implica una fusione di informazioni che permette di cogliere sfumature e correlazioni che potrebbero sfuggire analizzando ogni singola modalità separatamente.

Un aspetto particolarmente promettente della multimodalità è la sua applicazione nel campo dell’interazione uomo-macchina [7]. I sistemi multimodali possono interpretare non solo le parole pronunciate, ma anche il tono della voce, le espressioni facciali e il linguaggio corporeo, permettendo interazioni più naturali e intuitive. Questo approccio potrebbe rivoluzionare settori come l’assistenza sanitaria, l’educazione e il supporto alle persone con disabilità, dove la capacità di comprendere e rispondere a diversi tipi di segnali è fondamentale.

Le sfide nella progettazione di sistemi multimodali

La sfida principale nella progettazione di sistemi multimodali risiede nella necessità di gestire e integrare efficacemente flussi di dati molto diversi tra loro. Ogni modalità ha le sue caratteristiche specifiche in termini di formato, velocità di acquisizione e rumore di fondo. Inoltre, le diverse modalità potrebbero fornire informazioni apparentemente contraddittorie, rendendo necessario lo sviluppo di sofisticati algoritmi di fusione e risoluzione dei conflitti.

Democratizzazione dell’IA: sistemi efficienti con risorse limitate

Uno degli sviluppi più significativi nel campo dell’intelligenza artificiale riguarda la creazione di sistemi che possano essere addestrati ed eseguiti su infrastrutture computazionali modeste. Questa tendenza verso la “democratizzazione” dell’intelligenza artificiale sta aprendo nuove possibilità ai ricercatori, alle piccole imprese e agli sviluppatori individuali che non hanno accesso a grandi centri di calcolo o risorse costose. Un esempio in questo campo è il sistema OpenCog Hyperon sviluppato dal gruppo di ricerca di Ben Goertzel, uno dei padri della AGI – Artificial General Intelligence [8].

Lo sviluppo di architetture neurali efficienti

Le innovazioni in questo campo si concentrano su diverse strategie di ottimizzazione. Una direzione promettente è lo sviluppo di architetture neurali efficienti, che richiedono meno parametri pur mantenendo prestazioni competitive. Queste “reti leggere” utilizzano tecniche come la potatura dei collegamenti neuronali meno significativi e la quantizzazione dei pesi, riducendo significativamente le risorse necessarie per l’addestramento e l’inferenza [9].

L’ottimizzazione dell’apprendimento

Un altro approccio interessante è basato sull’ottimizzazione dell’apprendimento, dove modelli pre-addestrati su grandi dataset vengono adattati efficacemente per compiti specifici con poche risorse computazionali [10]. Questa tecnica permette di sfruttare la conoscenza accumulata da modelli più grandi senza dover ripetere l’intero processo di addestramento da zero.

Gli approcci distribuiti

La ricerca sta anche esplorando approcci distribuiti che permettono di suddividere il carico computazionale su reti di dispositivi più piccoli. Questi sistemi collaborativi possono sfruttare la potenza aggregata di multiple unità di calcolo modeste, creando una sorta di “supercalcolatore virtuale” accessibile anche a realtà con risorse limitate [11].

Questa democratizzazione dell’IA ha importanti implicazioni sociali ed economiche. Permette una più ampia partecipazione all’innovazione nel campo dell’intelligenza artificiale, promuovendo la diversità delle applicazioni e delle prospettive. Inoltre, rende possibile lo sviluppo di soluzioni più personalizzate e contestualizzate, adatte alle esigenze specifiche di comunità e mercati locali.

Trasparenza e ragionamento: verso un’IA comprensibile e verificabile

La trasparenza dei sistemi di intelligenza artificiale e la loro capacità di fornire spiegazioni comprensibili per le loro decisioni stanno diventando sempre più cruciali man mano che l’IA assume un ruolo più importante in decisioni che impattano la vita delle persone. Il campo dell‘IA spiegabile (XAI – Explainable Artificial Intelligence) sta facendo grandi progressi nello sviluppo di sistemi che non si limitano a fornire risultati, ma sono in grado di articolare il processo di ragionamento che li ha portati a determinate conclusioni [12, 13].

I sistemi che implementano un dialogo interiore (inner speech) rappresentano un esempio particolarmente interessante di questo approccio [14]. Questi sistemi simulano un dialogo interno simile al pensiero umano, esplicitando i passaggi logici e le considerazioni che portano a una determinata conclusione. Questo non solo rende più comprensibile il processo decisionale dell’IA, ma permette anche di identificare potenziali errori o pregiudizi nel ragionamento.

L’importanza di esaminare e comprendere la struttura interna dei modelli di IA

La trasparenza non si limita alla spiegazione post-hoc delle decisioni, ma include anche la possibilità di esaminare e comprendere la struttura interna dei modelli di IA. Nuove tecniche di visualizzazione e analisi permetteranno di “aprire la scatola nera” dei sistemi neurali, mostrando come diverse parti della rete si attivano in risposta a diversi input e come le informazioni vengono elaborate attraverso i vari strati del modello [15].

Questi sviluppi sono particolarmente importanti in settori critici come la medicina, la finanza e il sistema giudiziario, dove le decisioni dell’IA devono essere non solo accurate ma anche giustificabili e verificabili. La capacità di un sistema di spiegare le proprie decisioni in modo chiaro e comprensibile è fondamentale per costruire la fiducia degli utenti e garantire l’accountability delle applicazioni di IA.

L’IA etica: valori e responsabilità nei sistemi artificiali

L’integrazione di principi etici nei sistemi di intelligenza artificiale rappresenta una delle sfide più complesse e importanti del settore. L’IA etica non si limita all’implementazione di semplici regole di comportamento, ma richiede lo sviluppo di sistemi capaci di comprendere e applicare principi morali in contesti complessi e ambigui [16].

Un aspetto fondamentale dell’IA etica è la capacità di bilanciare diversi valori e obiettivi, talvolta in conflitto tra loro. Ad esempio, un sistema di IA nel settore sanitario deve bilanciare l’efficienza operativa con la privacy dei pazienti, o un sistema di guida autonoma deve gestire situazioni dove diversi principi etici potrebbero suggerire azioni contrastanti [17].

La ricerca in questo campo sta esplorando diverse direzioni. Una è lo sviluppo di sistemi etici formali che possono essere incorporati nei sistemi di IA, permettendo di valutare le implicazioni morali delle loro azioni. Un’altra direzione è lo sviluppo di sistemi capaci di apprendere principi etici dall’osservazione del comportamento umano, pur mantenendo la capacità di identificare e correggere eventuali pregiudizi presenti nei dati di addestramento [18, 19].

L’IA etica deve anche considerare la diversità culturale e la variabilità dei valori morali tra diverse società e contesti. Questo implica lo sviluppo di sistemi sufficientemente flessibili da adattarsi a diverse cornici etiche, pur mantenendo alcuni principi fondamentali universali come la non maleficenza e il rispetto dell’autonomia umana [20].

Un aspetto cruciale dell’IA etica è la trasparenza nelle decisioni etiche. I sistemi devono essere in grado di spiegare non solo come hanno raggiunto una determinata decisione, ma anche quali principi etici hanno guidato tale scelta [21]. Questo è fondamentale per costruire la fiducia degli utenti e permettere un dibattito informato sulle implicazioni etiche dell’uso dell’IA in diversi contesti.

Conclusioni

L’evoluzione dell’intelligenza artificiale sta procedendo su diverse direzioni interconnesse, ciascuna delle quali contribuisce a creare sistemi più capaci, responsabili e integrati nella società umana. L’auto-apprendimento sta rendendo i sistemi più autonomi, la multimodalità li sta avvicinando alla ricchezza dell’esperienza sensoriale umana, mentre l’efficienza computazionale sta democratizzando l’accesso a queste tecnologie. Parallelamente, gli sviluppi nella trasparenza e nel ragionamento stanno rendendo questi sistemi più comprensibili e verificabili, mentre l’integrazione di principi etici sta guidando lo sviluppo di IA più responsabili e allineate con i valori umani.

Queste tendenze non sono isolate ma si influenzano e si rafforzano reciprocamente. Ad esempio, la trasparenza nel ragionamento è fondamentale per l’implementazione di principi etici, mentre l’auto-apprendimento deve essere guidato da considerazioni etiche per evitare risultati indesiderati. La sfida per il futuro sarà integrare questi diversi aspetti in modo armonioso, creando sistemi di IA che siano non solo tecnicamente avanzati ma anche socialmente responsabili e benefici per l’umanità.

Il campo dell’intelligenza artificiale continua a evolversi rapidamente, e queste direzioni di sviluppo probabilmente si espanderanno e si trasformeranno nei prossimi anni. Sarà fondamentale mantenere un approccio equilibrato che consideri non solo le possibilità tecniche ma anche le implicazioni sociali, etiche e umane di questi sviluppi. Solo attraverso questa visione olistica potremo garantire che l’evoluzione dell’IA contribuisca positivamente al progresso della società nel suo complesso.

Bibliografia

[1] Silver, D., Schrittwieser, J., Simonyan, K. et al. (2017) Mastering the game of Go without human knowledge. Nature 550, 354–359, Doi: 10.1038/nature24270

[2] Ji, K., Chen, J., Gao, A., Xie, W., Wan, X., & Wang, B. (2024). LLMs Could Autonomously Learn Without External Supervision. arXiv preprint arXiv:2406.00606. Disponibile su: https://arxiv.org/abs/2406.00606

[3] Kontogiannis, A., Kelesis, D., Pollatos, V., Paliouras, G., & Giannakopoulos, G. (2021). Tree-based Focused Web Crawling with Reinforcement Learning. arXiv preprint arXiv:2112.07620. Disponibile su: https://arxiv.org/abs/2112.07620

[4] Baltrusaitis, T., Ahuja, C., & Morency, L.-P. (2019). Multimodal Machine Learning: A Survey and Taxonomy. IEEE Transactions on Pattern Analysis and Machine Intelligence, 41(2), 423–443. Doi: 10.1109/TPAMI.2018.2798607

[5] Durante, Z., Huang, Q., Wake, N. et al. (2024). Agent AI: Surveying the Horizons of Multimodal Interaction. arXiv preprint arXiv:2401.03568. Disponibile su: https://arxiv.org/abs/2401.03568

[6] Zhang, D., Yu, Y., Dong, J. et al. (2024) MM-LLMs: Recent Advances in MultiModal Large Language Models arXiv preprint arXiv:2401.13601 Disponibile su: https://arxiv.org/abs/2401.13601

[7] Ferrari, D., Pupa, A., Signoretti, A., & Secchi, C. (2023). “Safe Multimodal Communication in Human-Robot Collaboration.” arXiv preprint arXiv:2308.03690. Disponibile su: https://arxiv.org/abs/2308.03690

[8] Goertzel, B., Bogdanov, V., Duncan, M. et al. (2023). OpenCog Hyperon: A Framework for AGI at the Human Level and Beyond. arXiv preprint arXiv:2310.18318. Disponibile su: https://arxiv.org/abs/2310.18318

[9] Bibi, U. et al., (2024). Advances in Pruning and Quantization for Natural Language Processing. IEEE Access, vol. 12, pp. 139113-139128, 2024, Doi: 10.1109/ACCESS.2024.3465631

[10] Lv, K., Yang, Y., Liu, T. et al. (2023). Full Parameter Fine-tuning for Large Language Models with Limited Resources arXiv preprint arXiv:2306.09782, Disponibile su: https://arxiv.org/abs/2306.09782

[11] X. Liu et al., (2023) Distributed Intelligence in Wireless Networks. IEEE Open Journal of the Communications Society, vol. 4, pp. 1001-1039. Doi: 10.1109/OJCOMS.2023.3265425.

[12] Minh, D., Wang, H.X., Li, Y.F. et al. Explainable artificial intelligence: a comprehensive review. Artif Intell Rev 55, 3503–3568 (2022). Doi: 10.1007/s10462-021-10088-y

[13] Yang, W., Wei, Y., Wei, H. et al. Survey on Explainable AI: From Approaches, Limitations and Applications Aspects. Hum-Cent Intell Syst 3, 161–188 (2023). Doi: 10.1007/s44230-023-00038-y

[14] Chella, A., Pipitone, A., Morin, A. & Racy, F. (2020). Developing Self-Awareness in Robots via Inner Speech. Frontiers in Robotics and AI, 7. Doi: 10.3389/frobt.2020.00016

[15] Yosinski, J., Clune, J., Nguyen, A. et al. (2015). Understanding Neural Networks Through Deep Visualization. Deep Learning Workshop, 31st International Conference on Machine Learning, Lille, France.

[16] Dubber, M.D., Pasquale, F. & Das, S. (Eds.) (2020). The Oxford Handbook of Ethics of AI. Oxford University Press, Oxford, UK.

[17] Evans, K., de Moura, N., Chauvier, S., Chatila, R. (2023). Automated Driving Without Ethics: Meaning, Design and Real-World Implementation. In: Fossa, F., Cheli, F. (eds) Connected and Automated Vehicles: Integrating Engineering and Ethics. Studies in Applied Philosophy, Epistemology and Rational Ethics, vol 67. Springer, Cham. Doi: 10.1007/978-3-031-39991-6_7

[18] Poszler, F., Portmann, E. & Lütge, C. Formalizing ethical principles within AI systems: experts’ opinions on why (not) and how to do it. AI Ethics (2024). Doi: 10.1007/s43681-024-00425-6

[19] Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S., & Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2). Doi: 10.1177/2053951716679679

[20] Prabhakaran, V., Qadri, R. & Hutchinson, B. (2022). Cultural Incongruencies in Artificial Intelligence. First Workshop on Cultures in AI/AI in Culture (non-archival), NeurIPS 2022. https://ai-cultures.github.io/papers/Cultural_Competencies_in_Artificial_Intelligence__NeurIPS_2022_Culture_AI_Workshop.pdf

[21] Jobin, A., Ienca, M. & Vayena, F. (2019). The global landscape of AI ethics guidelines. Nature Machine Intelligence 1, 9, 389–399. Doi: 10.1038/s42256-019-0088-2

EU Stories - La coesione innova l'Italia

Tutti
Iniziative
Analisi
Social
Video
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4