“La differenza fra i robot e gli uomini? I robot sono sostanzialmente creature per bene”. Anche se non ho trovato attribuzioni sicure della frase allo scrittore Isaac Asimov, una cosa è certa: per decenni abbiamo affidato alla fantascienza il compito di addomesticare le nostre paure tecnologiche.
Indice degli argomenti
IA civica nel Terzo settore: la domanda su un’IA “per bene”
I robot di Asimov, vincolati da leggi etiche ferree, erano più affidabili degli esseri umani proprio perché programmati per prendersi cura dell’altro. Oggi, nell’epoca dell’intelligenza artificiale generativa, quell’intuizione torna a interrogarci: può l’IA essere “per bene”? E soprattutto: per chi?
Il dibattito pubblico sull’intelligenza artificiale è dominato da narrazioni industriali e finanziarie: produttività, efficienza, automazione, competitività globale. Sono dimensioni certamente rilevanti, però non esauriscono la questione. Esiste un’altra prospettiva, meno visibile ma altrettanto decisiva, che riguarda l’IA come infrastruttura sociale, come leva di prossimità, come strumento capace di ridurre, o ampliare, le disuguaglianze.
È qui che entra in gioco il Terzo settore. Non come destinatario passivo dell’innovazione tecnologica, ma come laboratorio civico in cui l’intelligenza artificiale viene sperimentata dentro relazioni reali, bisogni concreti, comunità fragili. Quindi non un’IA “neutra”, ma un’IA “situata”, progettata per funzionare nei contesti educativi, sociali, sanitari, territoriali.
Dalla tecnologia “neutra” all’IA civica
Il fatto che l’intelligenza artificiale sia già una forza che riorganizza servizi, lavoro e accesso ai diritti, ci sta aiutando a spostare la questione: la domanda non è più se usarla o meno, ma secondo quali criteri. Nel Terzo settore questa domanda assume una forma molto concreta: come accompagnare persone con basse competenze digitali? Come migliorare l’accesso ai servizi pubblici? Come rafforzare l’autonomia, e non la dipendenza, delle persone?
L’IA non è (solo) uno strumento di automazione, ma una tecnologia relazionale: supporta operatori e volontari, aiuta a leggere dati complessi, personalizza percorsi di apprendimento, rende più accessibili informazioni e servizi. È un’innovazione che non sostituisce la relazione umana, ma la potenzia, se progettata con criteri etici, trasparenza e responsabilità sociale. Parlare di algoritmi solidali significa proprio questo: spostare lo sguardo dall’IA come prodotto alla IA come processo sociale, incorporato in pratiche di cura, educazione, accompagnamento, cittadinanza. Stiamo facendo un esperimento molto interessante con Fondazione Mondo Digitale e Croce Rossa Italiana, con il progetto Digital Bridge.
L’obiettivo del progetto, selezionato e sostenuto dal Fondo per la Repubblica Digitale – Impresa sociale (bando Digitale sociale), è ridurre il divario tecnologico all’interno dell’organizzazione, offrendo a dipendenti e volontari un percorso di formazione innovativo e accessibile. Dopo una fase iniziale di assessment delle competenze digitali, i destinatari possono costruire un percorso formativo personalizzato, grazie a un programma modulare e multilivello. In questo caso l’innovazione tecnologica non viene “calata dall’alto”, ma messa alla prova nei contesti reali dell’azione volontaria, diventando oggetto di apprendimento, valutazione e adattamento continuo.
Un laboratorio concreto di IA civica, che consente anche di rendere osservabili e misurabili gli effetti della trasformazione digitale nel Terzo settore.
Oltre la filantropia: IA ed economia sociale
Il cambio di prospettiva rende evidente un limite del linguaggio con cui spesso raccontiamo l’innovazione sociale. Mi sembra di notare un uso sempre più diffuso e pervasivo del termine “filantropia”, mutuato dalla cultura anglosassone, che sta finendo per sostituire l’espressione “non profit” con il rischio di veicolare un’idea riduttiva: qualcuno che “dona” soluzioni a qualcun altro che le riceve.
Nel campo dell’intelligenza artificiale questa impostazione è particolarmente problematica. L’IA non è una risorsa che si trasferisce una tantum, ma un’infrastruttura cognitiva e organizzativa che richiede formazione, governance, manutenzione, capacità di valutazione e adattamento continuo.
Senza questi elementi, anche le migliori intenzioni rischiano di produrre dipendenza tecnologica o nuove forme di esclusione. Per questo è più appropriato parlare di economia sociale e di investimenti sociali generativi, piuttosto che di filantropia tecnologica. Un’IA a impatto sociale funziona quando è inserita in alleanze stabili tra enti pubblici, organizzazioni del Terzo settore, imprese tecnologiche e comunità locali; quando rafforza le capacità delle persone e delle organizzazioni; quando contribuisce a costruire beni comuni digitali che restano nei territori oltre la durata dei singoli progetti.
Vorrei che il Terzo settore non venisse considerato solo un “beneficiario” dell’innovazione, ma un co-progettista di intelligenza artificiale civica, capace di orientare le tecnologie verso il bene comune e di renderle davvero “per bene”, come i robot immaginati da Asimov.
Dove l’IA diventa prossimità: sperimentazioni dal Terzo settore
Quando l’intelligenza artificiale entra nei contesti del Terzo settore, smette di essere un esercizio astratto. Qui non funziona una logica “plug and play”: ogni tecnologia deve misurarsi con competenze diseguali, bisogni complessi, fiducia da costruire. È in questi contesti che stanno emergendo alcune delle sperimentazioni più interessanti di IA civica.
Nei servizi di facilitazione digitale, ad esempio, l’IA è usata come strumento di accompagnamento, non di sostituzione: supporto alla compilazione di pratiche online, chatbot supervisionati da operatori umani, strumenti di semplificazione linguistica per l’accesso ai servizi pubblici. Soluzioni apparentemente semplici, ma decisive per ridurre barriere cognitive e burocratiche che escludono milioni di persone dalla cittadinanza digitale.
In ambito educativo e formativo, l’intelligenza artificiale consente di personalizzare i percorsi di apprendimento e introduce un cambiamento rilevante nella valutazione: non più solo misurazione ex post, ma feedback in tempo reale utili sia a chi apprende sia a chi progetta interventi sociali. Un ulteriore fronte strategico è la valutazione d’impatto sociale.
L’IA può supportare l’analisi di dati complessi e l’integrazione di indicatori quantitativi e qualitativi, rafforzando la capacità delle organizzazioni di comprendere cosa funziona, per chi e in quali condizioni. In tutti questi casi, l’elemento decisivo non è la potenza tecnologica, ma la governance: cornici etiche chiare, trasparenza, responsabilità umana. È così che l’IA smette di essere una scatola nera e diventa un’infrastruttura di fiducia.
Una questione politica: IA, economia sociale e bene comune
Queste esperienze mostrano che l’intelligenza artificiale non è solo una questione tecnologica o di mercato, ma una questione politica: riguarda l’organizzazione della vita collettiva, l’accesso ai diritti, la qualità dei servizi e le forme della partecipazione.
Eppure, nel dibattito pubblico, raramente viene riconosciuta come fattore strutturale dell’economia sociale, nonostante il suo impatto crescente su welfare, educazione, sanità e inclusione. Per questo l’innovazione tecnologica va letta come parte di strategie di lungo periodo, fondate su alleanze tra enti pubblici, Terzo settore, imprese e comunità. Non singoli progetti, ma infrastrutture sociali e digitali fatte di competenze diffuse, modelli organizzativi e pratiche condivise di apprendimento e valutazione. È in questo quadro che diventa utile parlare di costituenti sociotecniche : l’insieme di competenze, relazioni, regole e spazi di partecipazione che rendono l’intelligenza artificiale governabile e orientata al bene comune.
Un terreno ancora in gran parte da costruire, ma decisivo per evitare che l’IA resti appannaggio di pochi o venga ridotta a strumento tecnico senza responsabilità collettiva.
Se vogliamo davvero che l’IA sia “per bene”, come i robot immaginati da Asimov, dobbiamo trattarla come un processo collettivo da governare, investendo in competenze, governance e sperimentazioni centrate sulle persone e sui territori. Solo così potrà diventare una leva di innovazione sociale e di qualità democratica.














