Esiste una distanza enorme tra il modo in cui la normativa europea disciplina l’intelligenza artificiale e il modo in cui i cittadini la vivono, la comprendono e la subiscono.
L’EU AI Act, il GDPR, la Carta dei Diritti Fondamentali dell’Unione Europea costruiscono un sistema di regole precise, obblighi chiari, divieti netti. È un’architettura normativa solida, necessaria, ben progettata.
Ma rimane fondamentalmente deontologica: stabilisce doveri e divieti, definisce cosa si può e non si può fare, sanziona le violazioni. Non risponde però alle domande più profonde: perché stiamo facendo tutto questo? Verso quale visione di società stiamo orientando queste scelte? Quali virtù dobbiamo coltivare per usare l’intelligenza artificiale in modo davvero responsabile? È precisamente questo vuoto filosofico e civico che la versione 1.1 dell’Augmented RenAIssance Manifesto si propone di colmare.
Indice degli argomenti
Una visione dell’intelligenza artificiale responsabile oltre la norma
La nuova versione rappresenta un salto qualitativo rispetto alla già ambiziosa versione originale. Concentrandosi sulle due sezioni fondanti — la Vision e i Principi Fondamentali — la versione 1.1 porta a compimento l’architettura filosofica del documento, arricchendola con due dimensioni che la normativa europea, per sua stessa natura, non può contenere: quella teleologica e quella aretaica.
L’approccio teleologico — dal greco telos, fine, scopo — chiede continuamente “verso quale fine?”, “questo uso dell’intelligenza artificiale serve davvero il bene comune?”, “migliora concretamente la vita dei cittadini o è innovazione fine a se stessa?”. L’approccio aretaico — da areté, virtù — chiede invece “quali virtù dobbiamo coltivare?”, “che tipo di organizzazione pubblica dobbiamo essere per usare l’AI con saggezza?”. Questi due piani si affiancano e completano quello deontologico normativo, creando un framework etico a tre dimensioni che manca ovunque nel panorama internazionale.
Le virtù cardinali come guida per l’intelligenza artificiale responsabile
Il cuore filosofico della versione 1.1 risiede nel legame esplicito con le quattro virtù cardinali della tradizione classica e rinascimentale: Prudenza, Giustizia, Fortezza e Temperanza. Non si tratta di un ornamento culturale né di un richiamo nostalgico al passato. Queste virtù vengono tradotte in principi operativi concreti che guidano le scelte di governance dell’intelligenza artificiale nel settore pubblico.
Dalla prudenza alla giustizia nelle scelte pubbliche
La Prudenza — che Aristotele definiva recta ratio agibilium, retta ragione applicata alla pratica — diventa il principio che chiede di analizzare criticamente se l’AI è davvero la soluzione giusta, se esistono alternative più semplici, se il beneficio pubblico atteso giustifica la complessità.
La Giustizia, che per Cicerone era la più alta virtù civica, si traduce nell’obbligo di garantire equità algoritmica verso tutti i cittadini, di fare audit periodici per bias sistematici, di proteggere soprattutto le fasce più vulnerabili della popolazione.
Il coraggio istituzionale e il limite nell’uso dell’AI
La Fortezza diventa il coraggio istituzionale di ammettere fallimenti, di resistere a pressioni economiche e politiche per implementazioni non etiche, di pubblicare rapporti onesti su successi e insuccessi.
La Temperanza, infine, si declina come moderazione nell’uso di risorse computazionali, attenzione all’impatto ambientale, preferenza per modelli energeticamente efficienti quando proporzionati allo scopo.
Una struttura aperta per rendere concreta l’intelligenza artificiale responsabile
Ma la vera novità della versione 1.1 non risiede solo nell’approfondimento filosofico. Risiede nella struttura partecipativa e aperta che accompagna il documento attraverso una colonna di risorse collegate, tutte pubblicate con licenza Creative Commons Attribution 4.0, aggiornate periodicamente e accessibili a chiunque.
Questa scelta non è tecnica ma politica, nel senso più nobile del termine: significa che ogni ente pubblico, ogni organizzazione, ogni startup, ogni cittadino può prendere questi strumenti, adattarli, migliorarli, condividerli, costruendo collettivamente una cultura dell’AI responsabile che nessun legislatore da solo potrebbe imporre.
Le risorse che accompagnano il manifesto
Tra le risorse collegate si trova innanzitutto un saggio introduttivo sull’intelligenza artificiale per le pubbliche amministrazioni, pensato non per tecnici ma per decisori, amministratori, cittadini curiosi. Un testo che spiega con chiarezza cosa può e non può fare l’AI, quali rischi comporta, quali opportunità offre, come si inserisce nel quadro normativo europeo.
I questionari per cittadini, tecnici e startup
Accanto al saggio, due questionari online bilingui italiano-inglese progettati come strumenti di democrazia partecipativa digitale.
Il primo raccoglie le preferenze dei cittadini sui casi d’uso dell’AI che la pubblica amministrazione dovrebbe prioritariamente considerare: non una consultazione formale ma un vero strumento di co-progettazione dei servizi pubblici.
Il secondo questionario, rivolto specificamente a tecnici e startup del settore IT, guida la raccolta strutturata dei requisiti tecnici per soluzioni AI, traducendo le esigenze emerse dalla cittadinanza in specifiche implementative concrete.
Dalla visione ai workflow per l’intelligenza artificiale responsabile
Infine, e forse più sorprendentemente per un documento di questo tipo, il manifesto mette a disposizione un repository di workflow KNIME — piattaforma open source di data analytics — che implementano soluzioni concrete di elaborazione dati e informazioni mediante modelli di intelligenza artificiale. Codici aperti, pronti all’uso, documentati, riutilizzabili.
Questo significa che una piccola amministrazione comunale, priva di un ufficio IT strutturato, può non solo leggere i principi del manifesto ma trovare strumenti pratici per implementarli.
Significa che una startup può usare questi codici come punto di partenza per sviluppare soluzioni innovative da proporre alle PA. Significa che la distanza tra visione filosofica e implementazione operativa, che affligge quasi tutti i framework etici sull’AI, viene concretamente ridotta.
Gli obiettivi civici del manifesto
L’obiettivo dichiarato della versione 1.1 è triplice e ambizioso. Innanzitutto informare: i cittadini devono sapere quale strategia di adozione dell’AI sta scegliendo la loro pubblica amministrazione, con quale visione, secondo quali principi, con quali limiti.
Poi formare: non basta sapere che l’AI esiste, bisogna comprenderne il funzionamento di base, gli impatti sociali, i rischi per i propri diritti, le opportunità che offre. Infine coinvolgere: cittadini e startup IT non sono destinatari passivi di tecnologie calate dall’alto ma co-protagonisti attivi nello sviluppo di soluzioni che rispondono ai bisogni reali della comunità.
La matrice rinascimentale dell’intelligenza artificiale responsabile
Questo triplice obiettivo rivela la profondità della visione rinascimentale che attraversa il documento. Come gli umanisti del Quattrocento credevano nella formazione del cittadino virtuoso attraverso le humanae litterae — lo studio della grammatica, retorica, storia, filosofia morale e poesia — così il manifesto crede nella formazione del cittadino digitale consapevole attraverso la comprensione critica dell’intelligenza artificiale.
Non una formazione tecnica che produce consumatori di tecnologia, ma una formazione civica che produce protagonisti della trasformazione digitale della democrazia.
Perché il manifesto parla all’Europa di oggi
Il manifesto compie così un’operazione culturale che va ben oltre il suo contenuto esplicito. Dimostra che è possibile parlare di intelligenza artificiale senza scegliere tra l’entusiasmo acritico dei tecnoutopisti e la paura irrazionale dei tecnofobi.
Dimostra che la normativa europea, necessaria e preziosa, non è sufficiente da sola a costruire una cultura dell’AI responsabile: servono visione, virtù, partecipazione.
Dimostra che l’eredità del Rinascimento europeo — la centralità della dignità umana, la fiducia nella ragione critica, il senso della responsabilità civica, la ricerca del bene comune — non è un patrimonio del passato da conservare nei musei ma una bussola viva per orientarsi nel presente più tecnologico della storia.
Una diffusione europea fondata sull’intelligenza artificiale responsabile
La versione 1.1 è pubblicata in inglese per massimizzare la diffusione a livello europeo, con i questionari disponibili in italiano e inglese per garantire accessibilità alla cittadinanza italiana. La licenza CC-BY 4.0 assicura che questo lavoro possa diventare seme di un movimento più ampio, adattato e reinterpretato da amministrazioni, organizzazioni e comunità in tutta Europa, mantenendo vivo il principio fondamentale che lo ispira: nell’era dell’intelligenza artificiale, l’intelligenza umana — con le sue virtù, la sua responsabilità, la sua capacità di scegliere il bene — rimane insostituibile.











