intelligenza artificiale

L’IA nel Terzo Settore: sfide e strumenti per il bene comune



Indirizzo copiato

L’intelligenza artificiale nel Terzo Settore rappresenta un’opportunità di rigenerazione sociale profonda. Dall’economia dei dati alla governance algoritmica, le organizzazioni sociali sono chiamate a diventare co-agenti della trasformazione digitale, oltre la logica dell’efficienza

Pubblicato il 28 nov 2025

Luca Baraldi

European Digital SME Alliance



legge ai italiana professionisti ai nel terzo settore

L’intelligenza artificiale apre nuove prospettive al Terzo Settore, ma impone sfide decisive per l’innovazione sociale. Mentre l’Europa definisce nuovi perimetri regolatori, non profit, cooperative e imprese sociali sono chiamate a diventare co-agenti del cambiamento: partecipazione, governance dei dati, rigenerazione comunitaria.

Il contesto normativo europeo e la responsabilità collettiva

In un’epoca in cui il ruolo delle comunità, il concetto di sussidiarietà e le stesse relazioni di cura vengono messe fortemente alla prova, di fronte alle profonde trasformazioni che stiamo vivendo, l’articolazione della riflessione normativa europea – dal Data Governance Act all’Artificial Intelligence Act, fino ai più recenti dibattiti sul Chat Control – apre certamente una grande opportunità di ripensamento dei meccanismi della società digitale, ma contestualmente rappresenta un appello inedito alla responsabilità collettiva.

Come vediamo quotidianamente, la prospettiva regolatoria, capace di disciplinare il cambiamento tecnico, non è più sufficiente, ma dovrebbe essere concepita ed implementata come un processo di ripensamento radicale del concetto stesso di responsabilità sociale. Da questo punto di vista, le organizzazioni del Terzo Settore non dovrebbero essere trattate – né considerare sé stesse – come semplici fruitori di strumenti digitali, ma come co-agenti di questa trasformazione. In questo contesto, l’AI nel Terzo Settore dovrebbe essere utilizzata non soltanto come un mezzo di efficientamento, ma come una leva di rigenerazione sociale, a livello territoriale, relazionale e cognitivo.

Questo articolo cercherà di stimolare una riflessione sull’argomento, proponendo quattro principali snodi di ragionamento:

  • la necessità di comprendere il contesto più ampio delle trasformazioni socio-economiche e biopolitiche che caratterizzano il nostro tempo;
  • la necessità di comprendere e sperimentare un uso dei dati come fondamento dei processi di rigenerazione (non solo come patrimonio informativo, ma come risorsa prosociale);
  • un’analisi di alcuni esempi concreti come chiave di ripensamento delle possibilità perseguibili;
  • la necessità di analizzare le grandi sfide e la capacità di proporre strumenti operativi di riflessione (funzionali all’implementazione di una vera e propria “grammatica” d’impresa sociale per l’AI).

Proveremo, nello spazio a disposizione, ad evidenziare alcune criticità e ad aprire alcune domande, che consideriamo fondamentali, per l’abilitazione di un dibattito pubblico sempre più articolato, necessariamente pluralista, di fronte ad una delle più destabilizzanti rivoluzioni tecnologiche nell’intera storia dell’umanità.

Le tre dimensioni della trasformazione: economia, società e biopolitica

Viviamo in un’epoca storica di trasformazione profonda – a livello tecnologico, sociale, economico, ambientale, geopolitico – e di variabili inedite, per ampiezza d’impatto e rapidità di cambiamento. Pur in un consapevole eccesso di semplificazione, possiamo definire il contesto del nostro tema sulla base di tre principali, che co-evolvono in maniera interdipendente:

  • Economia dei dati (e degli algoritmi): la raccolta, la produzione, l’elaborazione e la valorizzazione dei dati fanno ormai parte di una catena del valore che rappresenta un pilastro strutturale dell’economia globale. Non si tratta più semplicemente di tecnologia funzionalmente utile, ma di infrastruttura strategicamente rilevante. Le organizzazioni che rappresentano il Terzo Settore – associazioni, fondazioni, imprese sociali, cooperative – si trovano dunque a dover ridefinire non solo la funzionalità dei propri strumenti, ma l’adeguatezza delle proprie architetture cognitive. In questa nuova economia, “creare impatto” significa anche, necessariamente, “ripensare la produzione dei saperi”, “riconfigurare le architetture informative”, “ridisegnare le catene del valore”.
  • Transizioni sociali: le modalità associative e comunitarie, nella trasformazione sociale indotta dall’ibridazione digitale, stanno rapidamente mutando. Le comunità non possono più essere concepite come semplici destinatari di servizi, ma devono essere guidate per poter divenire soggetti attivi di rigenerazione cognitiva – e quindi socio-economica e territoriale – in un contesto in cui la centralizzazione del potere digitale corrisponde all’egemonizzazione dell’influenza politica. Le organizzazioni sociali sono pertanto chiamate, oggi più che mai, a diventare nodi di relazione, per favorire nuove possibilità di aggregazione, ascolto, partecipazione. Contestualmente, l’AI dovrebbe essere introdotta non solo come strumento di automazione, ma come nuova infrastruttura di collaborazione.
  • Dimensione biopolitica: le tecnologie digitali e i sistemi algoritmici ridefiniscono, in maniera più o meno evidente, la governance della vita privata, irrompendo nella nostra quotidianità con sistemi sempre più diffusi di profilazione, sorveglianza, prevenzione e gestione dei presunti rischi sociali. In questo spazio, evidentemente, le organizzazioni sociali potrebbero (forse dovrebbero) agire come soggetti di mediazione tra l’irruenza tecnologica e le soggettività vulnerabili. Dovrebbero concepire la riflessione sull’adoption dell’AI non solo dal punto di vista dell’erogazione dei servizi, ma soprattutto rispetto alla necessità di negoziare gli spazi di soggettività, di interpretare correttamente la complessità dei dati, di garantire reali spazi di partecipazione e dibattito pubblico.

In questo scenario, come appare evidente, l’AI non può essere vista semplicemente come uno strumento di efficienza operativa, ma dovrebbe, al contrario, essere compresa come un’infrastruttura di potere cognitivo, capace di ridefinire chi decide, di orientare chi interpreta, di scegliere chi conta. Ecco allora che il passaggio chiave: da una logica quasi mitologica dell’efficienza (fare di più con meno) a un rinnovato progetto di intelligenza sociale aumentata (fare di meglio con il contributo di tutti). Potremmo descriverlo come sistema cognitivo – tendenzialmente territoriale – in cui i dati, le comunità e gli algoritmi lavorano insieme.

L’intelligenza collettiva tradizionale – intesa come aggregazione del sapere di tutti, in una sorta di somma algebrica – si trasforma radicalmente, integrando dati, modelli, proiezioni, simulazioni, attivando non solo le nozioni collettive (ciò che si sa) ma l’immaginazione collettiva (ciò che, insieme, si può inventare). In questo contesto le specificità delle esperienze, l’unicità dei territori, le traiettorie inimitabili e imprevedibili delle storie locali alimentano un processo, abilitato dall’AI, radicalmente innovativo: non ottimizzazione o standardizzazione, ma valorizzazione della differenza, generatività del confronto, ripensamento della rilevanza. In questo contesto, il Terzo Settore deve comprendere il proprio ruolo come motore di immaginazione sociale. In questo contesto, lo stesso tema dell’efficienza – nella sua accezione più limitante – viene messo in discussione.

Dall’informazione al bene comune: il nuovo paradigma dei dati

Se nel passato, soprattutto nella progressiva managerializzazione dei processi organizzativi, gli enti del Terzo Settore concepivano i dati come un flusso informativo con rilevanza meramente gestionale – registrazioni, reportistica, documentazione – oggi diventa sempre più evidente la necessità di trattare il dato come una risorsa strategica, nel senso più ampio e profondo del termine. Se prima venivano trattati come una risorsa strumentale preziosa, oggi devono essere compresi come un bene comune.

La stessa semantica che dovrebbe permettere di gestire con maggiore accuratezza il tema dei dati è oggi in piena ridefinizione. Il lessico stesso del digitale – per anni centrato su concetti generici, onnicomprensivi, di ownership, access, efficiency – si è progressivamente orientato – o semplicemente aperto – verso categorie di carattere più relazionale: commons, trust, solidarity, stewardship.

Potremmo considerarlo come un segno di maturazione collettiva, almeno dal punto di vista del dibattito pubblico: la società sta cercando le parole più efficaci per affermare che i dati non possono essere considerati soltanto come risorse economiche, ma rappresentano a tutti gli effetti vere e proprie infrastrutture di fiducia e di corresponsabilità relazionale.

Questa inquietudine semantica è, in sé, fortemente politica. Definire i dati come beni comuni o come altruistici significa implicitamente riconoscere che la loro governance non può essere di natura solamente tecnica, o giuridica, ma deve affrontare implicazioni di carattere etico e sociale: serve disegnare una grammatica che permetta di tenere al centro concetti di reciprocità, cura, responsabilità condivisa. In questo senso, anche la ricerca del linguaggio giusto rappresenta, in qualche modo, una forma di rigenerazione: è il tentativo di riposizionare una intera visione culturale, e di riportare la parola “dato” nella sfera del comune, restituendogli la connaturata dimensione pubblica e collettiva.

Modelli europei di governance dei dati: dal data altruism ai data trusts

Proprio all’interno di questa cornice si sono moltiplicate le etichette che provano a dare forma, nei diversi contesti del dibattito scientifico, istituzionale e pubblico, a un’economia della condivisione responsabile. I data commons indicano le comunità che gestiscono collettivamente i propri dati (le città, le reti sociali, le organizzazioni civiche che considerano l’informazione come un’infrastruttura pubblica).

Il data altruism, introdotto e definito formalmente dal Data Governance Act europeo, riconosce il diritto di cedere volontariamente i propri dati per perseguire fini di interesse collettivo, attraverso delle organizzazioni dedicate; per quanto ancora in modo difficile da implementare, certamente un esempio rilevante e un passo decisivo verso una cultura della reciprocità informativa.

Accanto a questi modelli – forse i più noti, nella scena europea – si sono poi affermati concetti più specifici, con perimetri più limitati: i data cooperatives, che mutuano la logica mutualistica delle cooperative (soprattutto quelle sociali) per creare modelli di governance condivisa dei dati; o i data trusts, veri e propri enti fiduciari che amministrano patrimoni informativi comuni nell’interesse di una collettività, cercando di conservare la fiducia e la responsabilità come valori portanti.

Di carattere certamente più operativo è la cosiddetta data stewardship, che propone l’idea di “cura responsabile dei dati“, indirizzata non solo da sistemi di regole di trasparenza, ma da una pratica più ampia di accountability e da una volontà programmatica di restituzione, che deve permeare e ispirare l’intera strategia organizzativa. Infine, il principio di data solidarity, formulato da Barbara Prainsack e ripreso in numerosi programmi e progetti europei, che afferma in maniera esplicita il valore pubblico dei dati e la necessità di governarne la circolazione, allo scopo di redistribuire in modo equo i rischi e i benefici della ricerca e della nuova conoscenza.

Implicazioni operative per il Terzo Settore: qualità, condivisione e sovranità

Al di là della necessità, che affronteremo in altro contesto, di ripensare con maggiore precisione il valore centrale di un nuovo capitale semantico, proviamo a rielaborare le diverse sfumature di concetti certamente sfidanti, e di ricavarne alcune implicazioni operative e culturali per gli enti del Terzo Settore:

  • Qualità più che quantità: se la funzione dell’AI è quella di generare maggiore impatto (o di abilitare maggiore capacità d’impatto), occorre prestare attenzione alla qualità della materia prima (i dati). Le organizzazioni devono quindi accettare di investire, prima ancora che in AI-literacy, in data-literacy, dalla classificazione alla pulizia, dalla metadatazione alla capacità di documentazione.
  • Condivisione e intermediazione: a partire dalle indicazioni del DGA, l’Europa cerca di fornire un quadro chiaro, per la condivisione volontaria di dati, promuovendo una condizione di fiducia, superando eventuali ostacoli tecnici e regolatori alla possibilità di riuso. La comprensione non solo delle procedure operative, o delle condizioni di compliance, ma dell’architettura e della visione politica che ne ha definito il delineamento, è precondizione necessaria ad ogni riflessione di tipo strategico.
  • Sovranità dei dati: le comunità non possono accettare di essere trattate come bacini passivi di raccolta dati. Tutte le organizzazioni – quelle sociali in primis – devono sviluppare una governance dei dati fondata su una cultura della trasparenza, includendo procedure di accesso garantito, auditing e coinvolgimento dei beneficiari.
  • Dati come attivatori di rigenerazione: l’AI applicata agli enti del Terzo Settore – se progettata correttamente – può abilitare strumenti di previsione (ad esempio servizi sociali orientati al bisogno), di partecipazione (come forum digitali basati su e alimentati da algoritmi relazionali), o di simulazione strategica (come gli strumenti di pianificazione urbana e di animazione comunitaria). Tuttavia, questa potenziale capacità abilitante si può esprimere in maniera realmente costruttiva solo se i dati sono stati concepiti e strutturati come parte dell’ecosistema, anziché semplicemente come serbatoio.

Dalla gestione all’ecologia dei dati: un cambio di paradigma

Per semplificare, le organizzazioni sociali devono interrogarsi sul ripensamento profondo della visione, della meccanica gestionale, delle prospettive strategiche, per passare da una logica di gestione dei dati ad una di ecologia dei dati, in cui il dato non è solo un prodotto di registrazione, ma un nodo di un’infrastruttura cognitiva.

La raccolta, l’interpretazione, la condivisione, finanche la governance sono da considerare come dispositivi di rigenerazione.

Le due sfide strutturali: trasformazione cognitiva e governance dei modelli

Le trasformazioni in corso, come appare evidente, sono profonde. Non è sufficiente imparare ad utilizzare un software, o aggiornare le competenze operative informatiche, ma occorre ripensare, ridisegnare e trasformare la cultura alla base delle politiche della conoscenza, delle politiche sociali, delle politiche economiche. Le organizzazioni del Terzo Settore sono chiamate a giocare un ruolo centrale, nella definizione dei nuovi futuri possibili, in un momento in cui l’efficienza, travestita da obiettivo imprescindibile, rischia di rappresentare una diversione strategica. Le sfide da affrontare esigeranno, pertanto, una riflessione profonda, capace di mettere in discussione le nuove problematiche e di trasferire forza sulle reali possibilità di sviluppo collettivo abilitate dall’AI, al di là delle strategie mediatiche e delle prospettive meramente regolatorie delle iniziative politiche di settore. Esistono due grandi sfide strutturali che non possono essere trascurate.

Innanzitutto, la sfida della trasformazione cognitiva: l’AI e la logica della realtà datificata stanno ridefinendo radicalmente la logica di governance e pianificazione anche nelle organizzazioni sociali. Più o meno consapevolmente, stanno sempre più assumendo il ruolo, da meri operatori, di infrastrutture cognitive, che potremmo definire, per la natura e la vocazione, “ecosistemi di intelligenza collettiva“. Assumono un ruolo centrale nella produzione di senso, nella selezione dei criteri di rilevanza, nella partecipazione, nelle possibilità di rigenerazione. Chi sceglie l’AI? Chi ne allena, ne sorveglia e ne protegge i valori e le priorità? In che modo è stato davvero utilizzato un processo partecipativo?

La seconda sfida riguarda la dimensione della governance: questa transizione – rapida e pervasiva – dalla “governance della tecnologia” alla “governance dei modelli” significa che l’organizzazione è chiamata a definire visioni e strategie sulla conoscenza, anziché sugli strumenti. Significa che sarà necessario definire procedure interne che garantiscano l’esercizio di un controllo sui dati, sui modelli, che favoriscano condizioni di trasparenza, di auditabilità, e che assicurino un’attribuzione chiara dei livelli di responsabilità. La normativa europea certamente fornisce un perimetro legislativo di riferimento, ma non risponde in maniera efficace alle caratteristiche di gran parte delle organizzazioni che rappresentano ed esprimono la natura stessa del Terzo Settore.

Fragilità e limiti del Terzo Settore nell’era dell’AI

Proviamo ad evidenziare alcune delle caratteristiche che, dal punto di vista dell’articolazione dell’ecosistema economico, politico ed infrastrutturale di quella che definiremo “era dell’AI“, rappresentano limiti, o elementi di fragilità, nella partecipazione efficace degli enti del Terzo Settore alla trasformazione socio-tecnica che stiamo vivendo.

  • Innanzitutto il divario organizzativo: molte associazioni, molte cooperative, molte imprese sociali sono piccole, con risorse limitate tanto per le infrastrutture tecnologiche, quanto per le competenze tecniche e di governance.
  • L’articolazione controversa tra scalabilità e contesto: l’AI, per esigenze di mercato, cerca di spingere gli utenti finali verso soluzioni considerate generali, più facilmente “scalabili”, ma le strategie di rigenerazione sociale devono fondarsi su una condizione di radicamento contestuale, sulla capacità di adattamento locale, sulla possibilità di valorizzazione delle differenze di comunità. “Scalare”, in questo caso, rischia di corrispondere a “snaturare”.
  • Il tema della responsabilità e le gerarchie dell’influenza: non basta semplicemente attrezzarsi di dichiarazioni di etica, né affermare di “impegnarsi ad usare l’AI bene”, ma occorre strutturare procedure che permettano di mappare, monitorare e definire i processi decisionali e le attività di analisi degli impatti.
  • La necessità di una visione culturale, non solo operativa: l’innovazione tecnologica, in assenza di una narrazione condivisa, e senza un opportuno processo di coinvolgimento culturale della comunità coinvolta, rischia di diventare una “tecnologia che domina – indirizzandola – la comunità”, anziché una “tecnologia che abilita – coinvolgendola – la rigenerazione comunitaria”.
  • La necessità della trasparenza (nei limiti del possibile): l’AI, anche in questo caso, rischia di diventare – o di essere percepita – come una scatola nera. Le comunità devono poter comprendere il funzionamento dei modelli, includendo limiti e potenzialità. La literacy, in questo caso, deve essere uno spazio di educazione alla corresponsabilità e alla fiducia, in una condizione di onestà sugli eventuali rischi e sulle misure di governance compensativa. Senza trasparenza, più o meno consapevolmente, l’AI rischia di essere percepita come una forma di governance egemonica dissimulata.
  • La co-progettazione come condizione necessaria: è importante riuscire a ripensare la natura del processo deliberativo, non solo come la combinazione di partecipazione digitale e tecnologie di potenziamento computazionale AI-driven. Se opportunamente progettata, come nel caso dell’approccio maieutico di Symboolic, il dubbio, la domanda senza risposta, la tensione generativa del confronto entrano a far parte della ricchezza del processo di co-progettazione, trasferendo alla capacità deliberativa la vera natura dell’intelligenza collettiva abilitata dall’AI.

Rispetto a queste caratteristiche, le normative europee rappresentano certamente un asse di orientamento, ma non identificano, almeno non in maniera diretta, la possibile soluzione.

L’approccio regolatorio stabilisce delle cornici di riferimento, degli obblighi, identifica i rischi possibili e ne prioritizza la gestione, ma certamente non garantisce che l’AI possa portare un impatto sociale diffuso, o possa promuovere realmente il perseguimento di un’idea più alta e più ampia di bene comune. Certamente non consente di abilitare in maniera automatica dei veri processi di rigenerazione sociale. Ed è proprio qui che, dal mio punto di vista, subentra una chiamata all’azione: le organizzazioni sociali, gli enti del Terzo Settore devono rivendicare un ruolo di protagonismo, in questa trasformazione. La normativa è un’occasione per riflettere su cosa sia imprescindibile e su cosa sia stato trascurato, su cosa possa essere regolamentato e su cosa debba essere affidato alla generatività sociale, su quali siano le priorità di gestioni e quali, in maniera più ampia, le priorità guidate dalla volontà di facilitare concezioni più giuste del futuro della società.

Cinque domande strategiche per l’innovazione responsabile

Enti guidati da questa vocazione spesso faticano a mettere a fuoco le domande giuste, quando si parla di innovazione tecnologica. Incidono certamente la diversità di culture, o la divergenza nelle visioni prioritarie che, storicamente, hanno guidato chi lavora per l’industria tecnologica e chi, invece, vuole lavorare per la trasformazione sociale. Provando ad identificare alcuni temi chiave, che dovrebbero essere alla base delle strategie di innovazione digitale in un settore a vocazione prosociale, cerchiamo di stimolare la riflessione:

  1. Orientamento alla missione, non all’efficienza fine a se stessa: dobbiamo imparare a chiederci se l’AI che vogliamo introdurre serva davvero a realizzare la missione che guida il nostro lavoro, o semplicemente a rendere più efficienti i processi interni? Aumenta il valore reale del tempo che impieghiamo, o semplicemente ce lo fa risparmiare? Permette di migliorare la qualità delle relazioni, o si limita a meccanizzarle? Se l’efficienza è il fine, e non il mezzo, il potenziale di rigenerazione viene disperso.
  2. Dati come bene comune e centralità della partecipazione attiva: dobbiamo chiederci se stiamo raccogliendo dati in modo realmente utile per le comunità, garantendo condizioni ottimali d’uso dei sistemi tecnologici, che assicurino benefici diffusi e che trasferiscano realmente la data governance alla comunità (in maniera diretta o mediata, come abbiamo visto sopra). L’AI esprime vero potenziale (ri)generativo solo quando il dato viene co-creato, co-gestito, co-governato, e non semplicemente estratto.
  3. Governance dei modelli e auditabilità: dobbiamo imparare a chiederci – e a far sapere ai nostri stakeholder – quali modelli abbiamo scelto di usare, in base a quali criteri, con quali dati, con quali bias. Dobbiamo assicurarci che il sistema sia comprensibile per la comunità coinvolta, predisponendo policy interne su literacy e modalità d’uso, creando strumenti di divulgazione, garantendo l’accessibilità concettuale e la trasparenza procedurale e gestionale. Non basta dichiarare di usare tecnologie “buone”, ma serve costruire ed alimentare una cultura della fiducia.
  4. Radicamento territoriale e contesto di comunità: dobbiamo chiederci – e avere l’onestà di riconoscere – se l’AI sia stata concepita, o sia utilizzabile efficacemente, in relazione al contesto specifico delle comunità con cui vogliamo lavorare, o se invece si tratti di una soluzione generica calata dall’alto. Occorre elaborare strategie di mitigazione del rischio di “standardizzazione come distorsione”, favorendo processi di mappatura capillare ed accurata del contesto, dei saperi locali, degli indicatori di specificità territoriali. L’AI potrà essere uno strumento utile, in un processo di rigenerazione, solo se sarà opportunamente adattata, allenata, culturalmente situata.
  5. Visione culturale e narrativa condivisa: oltre alla necessaria alfabetizzazione, dobbiamo lavorare per creare una visione condivisa sull’integrazione dell’AI nell’organizzazione o nella comunità. Occorre promuovere occasioni – o attivare strumenti – per favorire la riflessione comune, per alimentare il dibattito, per far affiorare legittimi timori e possibili dubbi. Se la tecnologia viene adottata senza una trasformazione culturale del contesto d’uso, anziché diventare una leva di rigenerazione rischia di assumere la forma di una mera infrastruttura tecnico-economica, inevitabilmente più soggetta alle regole del mercato che alla capacità trasformativa dei territori.

Le sfide evolutive tra istituzioni, mercato e pensiero critico

Com’è facile comprendere, si tratta di snodi strategici che evolvono rapidamente, in maniera dipendente dalle evoluzioni della riflessione istituzionale, delle iniziative legislative (nazionali ed internazionali), dei giochi di potere della scena geo-economica globale, ma anche della capacità educante dei sistemi scolastici e della ricerca, della capacità dell’informazione di accompagnare lo sviluppo di un pensiero critico, della capacità di think-tank ed enti di ricerca indipendenti di favorire sistemi di contro-cultura e di pensiero critico. Tuttavia rimangono, almeno attualmente, le grandi sfide che, a livello strutturale, organizzativo e progettuale, gli enti che sono guidati dalla volontà di generare impatto devono affrontare con cura, con la doverosa lentezza e con la necessaria profondità.

Verso una politica dell’immaginazione: ripensare il valore dell’AI

Se, come insegna Michel Foucault, ogni infrastruttura cognitiva incarna un dispositivo di governo, allora è proprio nell’articolazione dell’intelligenza collettiva guidata dall’AI che è importante intervenire con pensiero critico, autonomia di pensiero, lungimiranza di visione. Se abbiamo la lucidità necessaria a considerare la rigenerazione non solo come la ricostruzione di un luogo, o di una comunità, ma come la ricostruzione della trama delle relazioni, delle dinamiche di partecipazione, di riappropriazione del linguaggio e degli immaginari, dei meccanismi di concessione sociale della fiducia, allora sarà facile comprendere la necessità di ripensare il valore del dato come un atto politico, e l’utilità dell’elaborazione algoritmica come un processo di costruzione del senso.

Mai come oggi servono visioni – e voci – in grado di immaginare nuovi usi dell’AI, non solo al servizio dell’efficientamento del presente, ma della co-costruzione di un futuro comune, non come semplici utenti, ma come architetti cognitivi in un processo di trasformazione storica che non può che essere collaborativo. Occorre quindi avere il coraggio di sfidare le domande mainstream, di proporre attitudini dissonanti, rispetto alla narrativa egemonica sull’uso e il valore dell’AI, per aprire nuovi orizzonti del pensiero critico, del dubbio, finanche della resistenza. Non dobbiamo chiederci semplicemente “quale modello di AI sia più adatto a noi”, ma “quale modello risponde all’idea di bene comune, di progresso, di crescita che vogliamo perseguire”. Non “quale indirizzo ci fornirà l’AI, per un processo di rigenerazione”, ma “come può aiutarci, l’AI, a trasformare un processo di rigenerazione in un cantiere politico, sociale e culturale più capillare, più partecipativo, più sostenibile”.

Non è una sfida sulla performance, quella che siamo chiamati a sostenere, ma una sfida sul coraggio dell’ascolto, sulla lungimiranza della cura, sull’ambizione della partecipazione. Forse, prima di tutto, dobbiamo interrogarci sul valore delle parole, e chiederci, davvero, cosa significhi, per noi, generare valore.

Articoli correlati