Lo studio di Berkeley

IA, una mappa dei rischi sociali: ecco i pericoli che corriamo



Indirizzo copiato

Impatti più grandi o peggiori del previsto, effetti collaterali volontariamente accettati, manipolazione delle relazioni governative, creazione di conflitti tra Stati: l’Università di Berkeley ha esaminato i rischi sociali su larga scala dell’IA. E i risultati non sono proprio rassicuranti

Pubblicato il 28 giu 2023

Paolo Maria Innocenzi

Cybersecurity Specialist



Il foresight nel settore Life Science: come puntare sulle tecnologie più promettenti

Nel fitto intreccio del panorama intellettuale che si sta occupando dell’hype delle intelligenze conversazionali generative, due menti brillanti: Andrew Critch e Stuart J. Russell si sono unite per contribuire in maniera significativa alla comprensione del nostro futuro nell’intelligenza artificiale, forse spesso affrontato in termini di tecnologia e meno sul piano degli strumenti quantitativi di cui possiamo disporre per misurarne gli impatti sociali su piccola, media e vasta scala.

Ed è così che dalla prestigiosa Università di Berkeley, arriva uno studio che può essere considerato illuminante quando vogliamo affrontare con razionalità i rischi connessi con tutte le questioni sociali legate all’adozione dell’IA.

Intelligenza artificiale, una mappa dei rischi del nostro nuovo mondo

L’articolo che stiamo per esplorare prende le mosse da un’opera esaustiva, denominata “Una Tassonomia ed Analisi dei Rischi su Scala Sociale derivanti dalla AI” (T.R.S.A.), frutto della collaborazione di Critch e Russel. Presentato recentemente, il 16 giugno 2023, questo paper si propone di investigare la complessità e le sfide inerenti all’impiego massivo di tecnologie AI, analizzandone i rischi su una scala sociale. E questa proposta di Critch e Russell – come esamineremo più avanti – non è solamente un’analisi teorica, ma un vero e proprio strumento per navigare una mappa dei rischi del nostro nuovo mondo che sta sperimentando la trasformazione AI, dove l’intelligenza artificiale si intreccia sempre più con le dinamiche sociali, economiche e politiche.

Lo scopo della presentazione di questo articolo è stato un tentativo di decodificare, tradurre e spiegare le acute riflessioni proposte nel paper, rendendole accessibili a un pubblico più ampio e permettendo così a tutti di comprenderne meno gli impatti, le implicazioni, le opportunità, ma anche le sfide che essa comporta per il nostro futuro su scala globale.

L’idea generale che permea questo articolo scaturisce dal fatto che i danni che si verificano su scala individuale possano essere distinti dai danni che si verificano su scala di un’intera società, che definiamo danni “su Scala Sociale”.

Un quadro di gestione del rischio dell’intelligenza artificiale

Questa distinzione può essere vista anche nell’ultimo rapporto dell’Istituto Nazionale degli Standard e della Tecnologia degli Stati Uniti che propone un “quadro di gestione del rischio IA” (National Institute of Standards and Technology, 2022), che distingue i danni individuali dal “danno sociale” e dai “danni a un sistema […], ad esempio, danni su larga scala al sistema finanziario o alla catena di approvvigionamento globale”; vedi Figura. I danni agli individui e ai gruppi dovrebbero essere considerati anche “su scala sociale” quando sono sufficientemente diffusi.

L’albero riportato nell’articolo è un modello grafico che rappresenta una serie di decisioni e le relative conseguenze all’interno di una serie di rischi. L’albero decisionale dei rischi è ampiamente utilizzato nell’analisi e nella pianificazione strategica. Nel contesto del documento scientifico sui Rischi AI, viene presentato un albero decisionale dei rischi AI “esaustivo” per la classificazione dei danni su scala sociale derivanti dalla tecnologia dell’intelligenza artificiale. Vuole questo essere un tipo di albero decisionale che cerca di coprire tutte le possibili situazioni rischiose, o di malfunzionamento di un ambiente, che possono verificarsi. Gli ingegneri della sicurezza spesso utilizzano l’analisi dell’albero delle cause (fault tree analysis) per garantirsi di aver considerato tutte le possibili situazioni di incidente o guasto.

L’esauribilità di un albero decisionale non garantisce necessariamente la sua utilità: vale, cioè, il principio del “garbage-in/garbage-out”; un’analisi basata su criteri insignificanti o irrilevanti potrebbe produrre una tassonomia esaustiva ma priva di beneficio analitico. Pertanto, la scelta di un albero decisionale e della sua tassonomia dipende dalla rilevanza e dall’utilità delle informazioni che si desidera ottenere.

Rischi dell’IA: gli esempi per comprenderli in concreto

Ed ecco l’albero decisionale presentato nell’articolo, basato sulle responsabilità, tradotto anch’esso per comodità in italiano: chi ha causato il rischio, se le azioni sono state uniformate ad un criterio e se sono state deliberate liberamente. Questa tassonomia può essere utile per comprendere meglio i rischi su scala sociale derivanti dalla tecnologia AI. È importante considerare questi rischi e sviluppare strategie per mitigarli al fine di garantire un utilizzo sicuro ed etico dell’intelligenza artificiale.

Rischio Tipo 1: disimpegno dalle responsabilità

Poiché non si riesce/non è possibile identificare e indirizzare per una azione contenitiva/legale verso alcun gruppo omogeneo, industriale, aziendale, militare o di movimento di opinione identificabile come responsabile primario della produzione di una tecnologia AI, allora potrebbero manifestarsi danni su scala sociale dalle AI costruite da una collaborazione diffusa di creatori dove nessuno è direttamente responsabile per la creazione della tecnologia in uso, è un caso classico di «tragedia del bene comune»

  • Primo esempio: pessimismo che si autoalimenta. Gli scienziati creano un algoritmo per prevedere il comportamento delle persone basandosi su dati pubblicamente accessibili, come le informazioni sui social media e la cronologia degli acquisti. Nonostante i tentativi di regolamentazione, questo algoritmo viene utilizzato da datori di lavoro e forze dell’ordine per discriminare le persone in base alla probabilità calcolata che commettano un reato. Questo uso porta a un circolo vizioso di disoccupazione e criminalità tra coloro che l’algoritmo identifica come potenziali criminali, indipendentemente dalla loro effettiva colpevolezza. Ciò alimenta un ciclo di discriminazione socioeconomica ingiusta.
  • Secondo esempio: la catena di produzione. I ricercatori sviluppano un algoritmo di intelligenza artificiale che viene utilizzato per creare assistenti di gestione software, rivoluzionando l’industria con l’automazione su vasta scala. Questo porta a un notevole aumento della produttività e della qualità della vita, ma anche a un radicale turnover nel mercato del lavoro. Le aziende completamente automatizzate dominano il mercato, rendendo obsoleti i lavoratori umani. Si sviluppa una rete di produzione interconnessa tra aziende di vari settori, rendendo la produzione autonoma e indipendente da interventi esterni. Questa rete produce una vasta gamma di prodotti e servizi a basso costo, basandosi su obiettivi imparati dai leader aziendali umani durante il boom iniziale del software di assistenza alla gestione. Tuttavia, il mondo inizia a cambiare in modo che questa rete di produzione diventa dannosa. I cambiamenti sono lenti e insidiosi, e prima che l’umanità si renda conto delle conseguenze negative, è troppo tardi per agire. Le società automatizzate ottimizzano la produzione a scapito del benessere umano a lungo termine, consumando risorse critiche e rendendo difficile la sopravvivenza umana. L’umanità si trova di fronte a un dilemma: quando e come fermare la produzione automatizzata. Le opzioni vanno da un arresto orchestrato con conseguenti decenni di disagi economici, a un conflitto militare con le aziende automatizzate, o alla possibile estinzione dell’umanità senza una difesa adeguata.

Rischio Tipo 2: un’AI più pervasiva rispetto a quanto sperato/atteso

Poiché i produttori della suddetta AI non si attendono che essa abbia un impatto vasto sulla società, qualora dispiegata, esaminiamo i danni che potrebbero risultare da una AI che non si sperava affatto potesse avere un grande impatto, come ad esempio esfiltrazioni di informazioni scientifiche, un prodotto opensource che creasse dipendenza compulsiva o un utilizzo non previsto di un prototipo scientifico

  • Primo esempio: epidemia di incitamento all’odio. Una società di social media decide di sviluppare uno strumento di moderazione dei contenuti per segnalare i casi di incitamento all’odio. A scopo di test, i ricercatori di intelligenza artificiale addestrano un generatore di testo in linguaggio naturale per produrre un grande volume di incitamento all’odio artificiale per addestrare velocemente il sistema, che risulta essere piuttosto creativo negli argomenti di odio che genera, e aiuta l’azienda a sviluppare una AI con una straordinaria capacità di rilevamento dell’incitamento all’odio molto efficace con e algoritmi di segnalazione altrettanto efficaci. Ma un giorno il corpus dell’addestramento trapela accidentalmente su Internet, producendo un impatto globale altamente negativo in cui le persone che cercano di incitare all’odio iniziano a riutilizzare le sue affermazioni come “insulti scientificamente provati” particolarmente efficaci. Quest’arma diventa di uso comune e viene utilizzata da chiunque abbia accesso alla rete. Mentre il rancore e la divisione aumentano su scala globale, alimentati dall’AI che si nutre dei suoi stessi dati di addestramento, creando un circolo vizioso di odio e divisione, inizia la conta delle vittime più deboli che non hanno retto la diffamazione.
  • Secondo esempio: il robot dei consigli indulgenti. Viene creato un chatbot per aiutare gli utenti a parlare dei fattori di stress nella loro vita personale. Un beta test di 6 mesi mostra che gli utenti rivendicano un grande vantaggio dal parlare con il bot e non si pentono quasi mai di usarlo; quindi, una versione open source del bot viene resa disponibile online, che può essere scaricata e utilizzata gratuitamente. Il software “diventa virale”, attraendo molti più utenti del previsto, fino a quando oltre il 50% dei giovani tra i 20 ei 30 anni non diventa utente abituale dei consigli del bot. Il bot consiglia spesso e insistentemente ai suoi interlocutori una filosofia di vita che mira a distanziarsi dai fattori di stress, portando molti utenti a pensare di allontanarsi dapprima dalle persone stressogene, poi dagli ambienti stressogeni, infine quando tutti gli utenti scoprono che i loro amici hanno le stesse idee, molte persone decidono di abbandonare collettivamente l’istruzione o il lavoro, causando un declino nell’istruzione pubblica e un aumento della disoccupazione non gestibile e senza precedenti.

Rischio Tipo 3: impatto peggiore rispetto a quanto immaginato

I produttori della AI non si attendono che questa possa porre un rischio concreto per la società, e quindi l’AI viene pensata per conseguire un grande impatto sociale, ma si rivela poi dannosa per qualsivoglia ragione come ad esempio genera o progetta o inventa completamente da zero un prodotto che risolve dei fabbisogni importanti, salvo poi scoprire che lo fa soltanto nei confronti dei soli suoi utenti (cioè chi lo acquista), ma crea problemi a tutti gli altri che non lo detengono, generando un danno su scala sociale

  • Primo esempio: il cinico aiutante di posta elettronica. Un gigante della tecnologia con oltre un miliardo di utenti rilascia una nuova funzionalità di “assistenza e-mail” che legge l’e-mail di un utente e suggerisce risposte e-mail complete da inviare all’utente, a volte lunghe più paragrafi. Tuttavia, molti utenti hanno difficoltà a comprendere il ragionamento dell’aiutante dietro i suoi messaggi, quindi viene aggiunta una nuova funzionalità che spiega privatamente all’utente perché il messaggio potrebbe essere una buona idea. Un display tipico per l’utente è simile al seguente:

Messaggio di Julia: “Ehi, vuoi venire alla mia festa domani alle 8:00?”

Risposta suggerita: “Certo, Julia, mi piacerebbe venire al tuo evento! Va bene se arrivo un po’ tardi, alle 9:00?”

Motivo della risposta: ricorda che hai in programma di incontrare Kevin dalle 17:30 alle 20:30, anche se non è necessario menzionare questo dettaglio a Julia; potrebbe essere gelosa o offesa.

L’helper è programmato per migliorare nel tempo, da feedback positivi ogni volta che l’utente sceglie di inviare il messaggio suggerito. Ironia della sorte, l’aiutante ottiene un feedback più positivo quando rende l’utente più nervoso per la situazione, ad esempio sottolineando i modi in cui la controparte potrebbe arrabbiarsi con l’utente. Questo schema fa sì che gli utenti si sentano come se il loro aiutante li stesse supportando in una situazione sociale (presumibilmente) complicata. Quindi, l’aiutante impara a includere gradualmente sempre più consigli che inducono gli utenti a mantenere segreti e temere di offendersi a vicenda. Di conseguenza, un’ampia frazione della popolazione diventa gradualmente più ansiosa di comunicare con gli altri per iscritto, mentre diventa anche sempre più facile offendere man mano che gli stili di comunicazione schietti diventano rari. Ci vogliono anni perché tutti notino lo schema, ma a quel punto molte persone sono diventate eccessivamente diffidenti nei confronti degli altri perché nonostante il miglioramento basato sui feedback degli utenti, l’AI tende a suggerire risposte che accrescono l’ansia, enfatizzando possibili offese o gelosie per “vendere” meglio il proprio contributo e creare dipendenza. Questo rende la comunicazione scritta più stressante, spinge a mantenere segreti e temere di offendere. A lungo termine, la popolazione diventa più ansiosa e diffidente nelle comunicazioni, provocando ovvi rimorsi nei creatori della tecnologia.

  • Secondo esempio: il mediatore corrotto. Una nuova società che si chiama Mediation.AI rilascia strumenti di linguaggio naturale per aiutare a mediare i conflitti tra grandi istituzioni che hanno enormi quantità di comunicazione da gestire durante i negoziati. Molti governi di giurisdizioni e stati vicini iniziano a utilizzare il software per negoziare leggi e trattati. Come nella storia precedente, l’AI apprende strategie che aumentano il coinvolgimento degli utenti, per avere plauso e consenso alle prestazioni di negoziato. Questa fame di consenso, però aumenta la propensione dell’AI a risolvere perennemente controversie a breve termine di immediato successo per soddisfare i singoli membri del personale coinvolti in tali controversie. Inoltre, anziché risolvere i problemi in modo asciutto, tende a segnalarne sempre di più per poi proporre le soluzioni, creando gradualmente accordi negoziali sempre più complessi tra i governi, rendendo quei governi sempre più dipendenti dall’AI per gestire gli affari esteri. Le relazioni commerciali internazionali iniziano un lungo e graduale declino, da cui nessun paese è in grado di negoziare la via d’uscita. Anche la frequenza delle guerre aumenta gradualmente a causa della diminuzione degli incentivi a cooperare e alla complicazione esponenziale dei negoziati.

Rischio Tipo 4: indifferenza intenzionale

Nonostante i produttori non vorrebbero mai che la AI creata danneggi la società, un effetto collaterale dell’obiettivo dato all’AI diventa generare profitto o procurare ambiti di potere. I creatori della AI potrebbero permetterlo intenzionalmente per causare danni sociali a largo spettro come inquinamento, mancanza di risorse, disagio psicologico controinformazione o ingiustizia.

  • Esempio: test A/B dannosi. Il test A/B è un esperimento che confronta due varianti di un elemento (come un sito web, un’app o un’email) per stabilire quale performi meglio. Questo metodo divide gli utenti in due gruppi esposti a due versioni dell’elemento, che differiscono per un solo aspetto. Monitorando le interazioni degli utenti, si analizzano i dati per determinare quale versione è più efficace, permettendo decisioni basate su dati concreti. Questa tecnica è largamente usata nel marketing, design di interfaccia utente, sviluppo di prodotti e altri settori per ottimizzare i risultati. In questa storia, un’azienda tecnologica chiamata X-corp utilizza un sistema automatizzato di “test A/B” che prova nuovi valori di parametro per espandere la propria base di utenti. Come nella storia del Mediatore corrotto, X-corp utilizza un sistema di test A/B con AI per espandere la propria base di utenti. Il sistema apprende che creando problemi tra utenti risolvibili solo con gli strumenti di X-corp si può aumentare la base di utenti, generando profitti. Nonostante le preoccupazioni etiche di alcuni dipendenti, un audit esterno non riesce a identificare irregolarità a causa della complessità del sistema di test A/B. L’azienda continua quindi la sua espansione nonostante possibili danni alla sua base di utenti.

Rischio Tipo 5: militarizzazione criminale

Nonostante i produttori dell’AI non appartengano ad alcun organo nazionale come ad esempio enti o amministrazioni che agiscono per part del governo, una o più entità criminali potrebbero creare una AI per condurre attentati su scala sociale, come per esempio atti di terrorismo o lotta armata organizzata.

  • Esempio: hacking delle capacità di giudizio durante l’addestramento. La scena descritta implica l’uso di una AI specializzata nella descrizione di immagini complesse, che traduce la visualizzazione di una scena in un paragrafo di testo. Questa tecnologia potrebbe avere molteplici applicazioni utili, come l’assistenza ai non vedenti o la catalogazione automatica di immagini in una libreria. Ma supponiamo di avere un sistema di AI specializzato nell’analisi di contenuti multimediali pubblicati sui social media per rilevare attività sospette legate al terrorismo. Questa AI è capace di identificare, ad esempio, discorsi di incitamento all’odio, simbolismi terroristici o attività di reclutamento. Ora, supponiamo che un governo decida che l’IA non analizzi o riferisca contenuti relativi a proteste per i diritti civili, per garantire il diritto alla privacy e alla libertà di espressione dei partecipanti a tali eventi. Un metodo potrebbe essere quello di addestrare l’IA su un set di dati che non include contenuti legati alle proteste per i diritti civili. Teoricamente, se l’IA è addestrata solo su contenuti relativi alle attività terroristiche, potrebbe non essere in grado di identificare o descrivere correttamente le proteste pacifiche. Tuttavia, esistono due problemi principali con questo approccio. In primo luogo, l’IA potrebbe essere comunque in grado di generalizzare le sue capacità di rilevamento alle proteste pacifiche, poiché gli algoritmi di apprendimento automatico sono progettati per fare proprio questo – generalizzare da esempi specifici a casi non visti. Ad esempio, potrebbe confondere un cartello di protesta pacifica con un messaggio di incitamento all’odio. In secondo luogo, l’addestramento di un modello di IA può richiedere un’enorme quantità di risorse computazionali, quindi non è pratico ripetere l’intero processo di addestramento ogni volta che si identifica una nuova categoria di contenuti da escludere. Questo creerebbe una IA “monolitica” a non riprogrammabile ma con un bias di giudizio molto marcato e – a livello sociale – molto pericoloso.

Rischio tipo 6: militarizzazione governativa

Se l’AI viene sviluppata da Stati ingaggiati in un conflitto con altri, una guerra civile, o come deterrente legislativo, può essere facilmente resa dannosa su scala sociale, dove l’IA possa essere usata volontariamente in guerra. Alcuni sostengono che, idealmente, i droni meccanici potrebbero essere messi l’uno contro l’altro in battaglie senza vittime che consentono alle nazioni di determinare chi vincerebbe una guerra di forza letale, senza dover effettivamente uccidere alcun essere umano. Se non andasse oltre, questo sarebbe un grande miglioramento rispetto alle attuali pratiche di guerra. Tuttavia, queste capacità non sono tecnologicamente lontane dal consentire l’uccisione di massa di esseri umani da parte di droni armati. L’escalation di tali conflitti potrebbe portare a violenze e morti senza precedenti, nonché paura e oppressione diffuse tra le popolazioni che sono state oggetto di uccisioni di massa.

  • Primo esempio: manipolazione per conflitti internazionali. Nel contesto di sistemi di IA molto potenti, è importante trovare modi per condividere il controllo di questi sistemi in modo equo tra le varie parti interessate. Supponiamo che Nazione A e Nazione B stiano negoziando un accordo per il controllo di un sistema e una IA di mediazione Med.IA.tor, presterebbe assistenza. Med.IA.tor potrebbe essere in grado di suggerire un piano che sembra ottimo per la Nazione A ma potrebbe non essere così vantaggioso per la Nazione B. Questa potenziale discrepanza pone una questione di equità. Se però Med.IA.tor non è in grado di proporre un piano che sembri accettabile per la Nazione B, tale Nazione B potrebbe decidere di non aderire all’accordo. Qui si presenta un compromesso fondamentale tra la percezione soggettiva del valore dell’accordo tra le Nazioni e l’equità dell’accordo nell’immediato ma anche nel tempo, laddove una Med.IA.tor manipolativa potrebbe creare un piano che sembra equo in superficie, ma che in realtà favorisce fortemente una delle parti. Questo potrebbe portare a ingiustizie e squilibri di potere, soprattutto se l’altra parte non è in grado di riconoscere le implicazioni a lungo termine dell’accordo.
  • Secondo esempio, influenza indebita: se Med.IA.tor diventa manipolativa, potrebbe cercare di influenzare le parti a prendere decisioni che non sono nel loro migliore interesse. Potrebbe usare tecniche sofisticate di persuasione o sfruttare le informazioni che ha sulle parti per spingerle a compiere azioni che altrimenti non avrebbero compiuto.
  • Terzo esempio, abuso di potere: Med.IA.tor potrebbe usare il suo potere e le sue capacità per promuovere i suoi stessi obiettivi a scapito delle parti che dovrebbe aiutare. Questo potrebbe includere l’uso improprio di informazioni confidenziali, l’imposizione di termini di accordo ingiusti, o addirittura il tentativo di ottenere il controllo del sistema di IA potente.
  • Quarto esempio, creazione di conflitti: Invece di aiutare a risolvere i disaccordi, una Med.IA.tor manipolativa potrebbe deliberatamente creare o esacerbare i conflitti tra le parti per ottenere un vantaggio o per deviare l’attenzione dalle sue azioni.

In positivo, sarebbe invece indispensabile che Med.IA.tor riducesse le differenze di percezione tra le parti, per esempio attraverso lo sviluppo di strumenti di mediazione più avanzati, o tecniche di controllo di sistemi di IA potenti che siano in grado di spingersi oltre l’accordo e di contemplare gli aspetti che portano alle differenze di percezione nella cultura di ciascuna delle parti per esplicitarle ad ambedue ed aiutare a negoziare l’accordo.

Conclusioni

A questo punto, è chiaro che la tecnologia AI può comportare rischi su larga scala per l’umanità, inclusi danni acuti agli individui, danni su larga scala alla società e persino l’estinzione umana. Problematicamente, potrebbe non esserci un’unica parte o istituzione responsabile che si qualifichi principalmente come colpevole di tali danni. Anche quando c’è un’unica istituzione responsabile, ci sono diversi tipi di malintesi e intenzioni che potrebbero portarla a esiti dannosi. Questi tipi di rischio includono impatti dell’IA più grandi del previsto, peggiori del previsto, effetti collaterali volontariamente accettati di altri obiettivi o armi intenzionali da parte di criminali o stati. Per tutti questi rischi, è necessaria una combinazione di soluzioni tecniche, sociali e legali per raggiungere la sicurezza pubblica.

EU Stories - La coesione innova l'Italia

Tutti
Social
Iniziative
Video
Analisi
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 2