l’analisi

Software libero e AI: l’etica non è un accessorio tecnologico



Indirizzo copiato

Il software libero offre un’infrastruttura per un’intelligenza artificiale responsabile attraverso trasparenza del codice, modificabilità e governance democratica. Questi strumenti contrastano l’opacità algoritmica e il controllo monopolistico, evitando l’open-washing e costruendo alternative concrete ai sistemi proprietari

Pubblicato il 12 gen 2026

Giuseppe Aceto

AI & Robotics Ethicist



Big Tech e software open source (1); sovranità digitale Codice di condotta produttori software copyleft Software FOSS

Il software libero può diventare l’infrastruttura per un’intelligenza artificiale responsabile: non attraverso proclami etici, ma mediante pratiche concrete di trasparenza, modificabilità e governance democratica del codice.

Dalla conferenza SFSCON di Bolzano emerge un’analisi radicale delle contraddizioni dell’AI contemporanea e delle possibilità offerte dall’open source autentico.

Il contesto: SFSCON e la dimensione politica del software libero

Proprio alla SFSCON di Bolzano, infatti, ho discusso una questione centrale per il nostro tempo: se e come il movimento del software libero possa offrire un’infrastruttura per un’intelligenza artificiale davvero responsabile. Non solo negli slogan, ma nella pratica concreta dello sviluppo tecnologico.

La SFSCON è uno spazio dove da sempre si intrecciano competenza tecnica e consapevolezza politica, dove l’apertura del codice non è mai stata vista come mero vantaggio pragmatico ma come questione di giustizia sociale. È esattamente in questi contesti che possiamo essere radicali nel senso etimologico: andare alla radice dei problemi.

Oltre la neutralità: tecnologia, potere e scelte politiche incorporate

Quando parliamo di intelligenza artificiale “etica” o “responsabile”, stiamo discutendo di un problema che è simultaneamente tecnico, politico e filosofico. Troppo spesso, però, il dibattito pubblico si arena su posizioni dicotomiche: entusiasmo acritico da un lato, catastrofismo dall’altro. Entrambe condividono un errore fondamentale: trattare la tecnologia come una forza esterna, autonoma, anziché come il prodotto di scelte umane concrete, reversibili e sempre politicamente orientate.

Bias algoritmici e la costruzione sociale dei dati

Ogni sistema di intelligenza artificiale incorpora assunzioni implicite su cosa costituisce un dato rilevante, su quali pattern meritano di essere appresi, su quale funzione ottimizzare. Queste assunzioni non sono neutre: riflettono priorità, visioni del mondo, rapporti di potere. Matthew Salganik, nel suo “Bit by Bit”, ha mostrato come i dati digitali non siano mai semplicemente “trovati” ma sempre “costruiti” attraverso decisioni su cosa registrare, come categorizzare, cosa preservare. Nell’intelligenza artificiale, questo processo di costruzione si amplifica: i bias nei dati vengono appresi, sistematizzati, automatizzati su scala industriale.

Le tecnologie come artefatti politici: da Winner a O’Neil

Come ha argomentato Langdon Winner in “Do Artifacts Have Politics?”, le tecnologie possono incorporare forme di autorità e distribuire potere in modo asimmetrico. Un ponte costruito deliberatamente basso per impedire l’accesso agli autobus pubblici è tecnologia politica quanto una legge che segreghi esplicitamente. Gli algoritmi contemporanei operano secondo la stessa logica, solo con una complessità che rende l’intenzionalità politica più difficile da individuare e quindi da contestare.

L’industria tecnologica ha risposto alle critiche con una proliferazione di dichiarazioni di principio: “AI for Good”, “Responsible AI”, “Ethical AI”. Il problema non è l’intenzione, molti documenti sono intellettualmente sofisticati. Il problema è che l’etica viene concepita come vincolo esterno da applicare a processi già definiti, anziché come principio costitutivo che informa l’intero ciclo di vita dello sviluppo.

Cathy O’Neil, in “Weapons of Math Destruction”, dimostra come algoritmi apparentemente tecnici producano sistemi di feedback che amplificano disuguaglianze esistenti. Il danno algoritmico non è accidentale ma strutturale: deriva da incentivi economici che spingono a ottimizzare metriche che massimizzano profitto piuttosto che benessere collettivo, da asimmetrie informative che impediscono a chi subisce l’algoritmo di contestarlo efficacemente, da mancanza di accountability che protegge chi progetta questi sistemi.

Responsible by design: etica come principio architetturale

Responsible by Design” significa invertire radicalmente questa logica. L’etica deve essere principio architetturale fin dall’inizio. Significa porsi domande fondamentali prima ancora di scrivere la prima riga di codice: questo sistema aumenta o riduce l’autonomia degli individui? Distribuisce o concentra ulteriormente il potere decisionale? È contestabile da chi lo subisce? Include procedure di riparazione quando inevitabilmente produrrà danni?

L’etica by design non è una metodologia tecnica più raffinata, è un’inversione del rapporto tra mezzi e fini nello sviluppo tecnologico. Richiede di accettare che alcuni obiettivi tecnici vadano deliberatamente non perseguiti perché incompatibili con valori fondamentali. Richiede di rallentare quando l’industria spinge ad accelerare, di complicare quando il mercato premia la semplificazione, di distribuire quando la logica del capitale spinge alla concentrazione.

Codice come legge: la lezione di Lessig e l’urgenza democratica

Il movimento del software libero nasce da un’intuizione profonda: la trasparenza del codice è questione di giustizia sociale e organizzazione democratica del potere. Come ha sostenuto Lawrence Lessig in “Code and Other Laws of Cyberspace”, il codice è legge nel senso più materiale del termine. Regola comportamenti, abilita o impedisce azioni, distribuisce diritti e doveri. E se il codice è legge, deve essere soggetto agli stessi principi democratici: pubblicità, contestabilità, possibilità di modifica attraverso processi collettivi.

Nel contesto dell’intelligenza artificiale, questa intuizione diventa urgente. I sistemi algoritmici prendono decisioni che impattano diritti fondamentali: determinano l’accesso al credito, filtrano opportunità di lavoro, influenzano la libertà di movimento, condizionano la presunzione di innocenza nei sistemi di giustizia predittiva. L’opacità di questi sistemi è un problema di potere.

I tre pilastri del software libero per l’AI: ispezionabilità, modificabilità, fork

Il software libero offre tre contributi fondamentali:

Primo, ispezionabilità tecnica reale: non dichiarazioni astratte sui principi seguiti, ma la possibilità concreta per ricercatori indipendenti, giornalisti investigativi, organizzazioni della società civile di esaminare come funziona un sistema. Non fiducia, ma verifica.

Secondo, modificabilità adattiva: comunità locali possono adattare sistemi globali a contesti specifici, valori culturali diversi, priorità differenti senza dover negoziare con corporation transnazionali. L’alternativa è l’egemonia tecnica: soluzioni progettate a Silicon Valley imposte universalmente come se fossero inevitabili manifestazioni della razionalità tecnica.

Terzo, la possibilità del fork: se un progetto tradisce i principi della sua comunità, il codice può essere biforcato. Un meccanismo di exit che redistribuisce potere negoziale. La minaccia credibile del fork disciplina anche progetti che non vengono mai effettivamente biforcati, perché i maintainer sanno che la loro autorità dipende dal consenso continuato della comunità.

Open-washing: quando l’apertura diventa retorica di marketing

Dobbiamo riconoscere con lucidità un fenomeno recente e preoccupante: l’uso strumentale della retorica dell’apertura per legittimare pratiche fondamentalmente chiuse. Modelli di machine learning vengono commercializzati come “open” quando in realtà sono semplicemente distribuiti, ma addestrati su dataset proprietari, con metodologie non replicabili, da organizzazioni che mantengono controllo monopolistico su ogni aspetto significativo del processo.

Difendere il significato di “open source”: una battaglia politica

Stefano Maffulli, direttore esecutivo della Open Source Initiative, ha sottolineato come il termine “open source AI” venga sistematicamente abusato. Un modello non è open source semplicemente perché i suoi pesi sono scaricabili. È open source se rispetta i principi fondamentali: trasparenza processuale completa, modificabilità senza restrizioni arbitrarie, redistribuibilità che include usi commerciali. Altrimenti parliamo di “available source”, una categoria completamente diversa.

Questo non è pedantismo terminologico. Le parole che usiamo strutturano il campo delle possibilità politiche che riusciamo a immaginare. Se “open AI” diventa sinonimo di “modello scaricabile da grande azienda tecnologica”, abbiamo perso la capacità linguistica di articolare l’alternativa radicale: sistemi genuinamente governati da comunità di pratica, auditabili nel processo e non solo nel prodotto finale, sviluppati secondo logiche di commons digitali anziché di estrazione di valore.

Intransigenza terminologica come difesa di conquiste politiche

La comunità del software libero deve essere intransigente nel difendere il significato delle proprie categorie. Non per settarismo, ma perché quelle categorie rappresentano conquiste politiche concrete, modalità alternative di organizzare la produzione della conoscenza tecnica.

Governance democratica e il problema della competenza tecnica

Chi partecipa alla governance tecnica? L’audit di sistemi AI richiede competenze statistiche, computazionali, conoscenze domain-specific sofisticate. Come garantiamo che le voci incluse non siano solo quelle di chi ha già accesso privilegiato a educazione tecnica avanzata? La democratizzazione della tecnologia richiede anche democratizzazione della competenza tecnica, altrimenti rischiamo di sostituire un’oligarchia proprietaria con un’oligarchia meritocratica.

Finanziamento e sostenibilità dei modelli alternativi

Come si finanziano le alternative? Lo sviluppo di modelli AI su larga scala richiede investimenti significativi, risorse computazionali immense, coordinamento tra competenze diverse. Il software libero ha dimostrato che modelli economici alternativi sono possibili—Apache, Linux, Firefox esistono e prosperano. Ma scalare questi modelli all’AI contemporanea, con i suoi costi esponenziali, richiede innovazione nei meccanismi di finanziamento collettivo e nelle strutture organizzative.

Commons digitali globali in un mondo frammentato

Come si gestiscono i global commons digitali in contesti geopolitici frammentati? L’AI ha già dimensioni geopolitiche evidenti: competizione strategica tra USA e Cina, tentativi europei di regolamentazione, rivendicazioni di sovranità digitale. Il software libero nasce da un’etica cosmopolita della condivisione della conoscenza. Come si preserva questa etica in un mondo che si sta rapidamente de-globalizzando?

Contro il determinismo: la tecnologia come spazio di negoziazione

Esiste una tentazione, sia tra entusiasti che tra critici, di attribuire agency autonoma agli algoritmi: “l’AI farà questo”, “l’AI ci porterà là”. È determinismo tecnologico che oscura la responsabilità umana e rende invisibili le scelte concrete che producono specifiche configurazioni tecnologiche.

L’AI non “fa” nulla in senso proprio. Viene guidata da persone concrete, in istituzioni specifiche, secondo incentivi determinati, all’interno di rapporti di potere esistenti. Sheila Jasanoff ha mostrato come le tecnologie emergano attraverso processi di negoziazione complessi dove tecnico e sociale si costituiscono reciprocamente. Questo significa che la tecnologia è sempre campo di contestazione politica. Non esiste un unico futuro dell’AI inevitabile. Esistono futuri plurali possibili, che dipendono dalle scelte che facciamo oggi su governance, ownership, accessibilità, accountability.

Pratiche concrete per un’AI responsabile: dalla teoria all’azione

L’AI responsabile sarà il risultato di pratiche concretamente implementate attraverso conflitti, negoziazioni, sperimentazioni. Richiede trasparenza processuale che includa l’intero ciclo di sviluppo. Richiede meccanismi di accountability che connettano conseguenze reali a decisioni progettuali. Richiede governance partecipativa che includa chi è tipicamente escluso: le persone che subiranno gli effetti dei sistemi, non solo chi li progetta o chi ne trae profitto.

Richiede infrastrutture tecniche che rendano materialmente possibile l’audit, la contestazione, la modificazione—non come concessioni generose ma come diritti incorporati nell’architettura. Richiede modelli economici alternativi che dimostrino la sostenibilità di approcci che non passano attraverso il monopolio proprietario.

Il software libero non garantisce nessuno di questi elementi automaticamente, ma li rende possibili. Fornisce le fondamenta su cui costruire. La costruzione vera e propria, però, richiede scelte politiche deliberate, organizzazione collettiva, investimento di risorse, conflitto inevitabile con interessi consolidati.

La posta in gioco: chi controlla il codice controlla i futuri possibili

L’etica by design non è un optional tecnologico per chi ha sensibilità particolare, è una necessità politica per chiunque non voglia consegnare il futuro a chi controlla i data center più grandi. E il momento di incorporarla è adesso, mentre le architetture fondamentali dell’AI contemporanea sono ancora in formazione.

Chi controlla il codice, controlla le possibilità materiali di azione. Chi controlla le possibilità, controlla quali futuri diventano pensabili e quali rimangono nell’ordine dell’impossibile. Questa non è retorica: è la posta in gioco concreta delle battaglie sul software libero nell’era dell’intelligenza artificiale.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x