In Occidente discutiamo, spesso a ragione, di come rendere l’intelligenza artificiale regolata, etica e trasparente. In altre parti del mondo la domanda è più radicale: può l’IA nascere dentro una relazione con il territorio, la comunità e le generazioni future?
Indice degli argomenti
Algoritmi occidentali e invisibilità culturale
È il punto di partenza dell’Indigenous AI, come mostrato nei documenti fondativi di Lewis et al. (2020) e Abdilla et al. (2021), che concepiscono la tecnologia non come un sistema da ottimizzare, ma come una continuità tra persone, luoghi e forme di conoscenza. Questa prospettiva si discosta profondamente da quella occidentale, dove gli algoritmi sono perlopiù concepiti come strumenti tecnici.
Nel panorama contemporaneo, i Large Language Models (LLM) sono tra gli strumenti più influenti. La loro mancanza di neutralità culturale emerge non solo dai dati che includono, ma soprattutto da ciò che non registrano: lingue, memorie e pratiche culturali che non compaiono nei dati semplicemente non esistono per il modello.
Quando i Large Language Models cancellano le culture locali
Un esempio italiano può chiarire di cosa stiamo parlando. Un LLM può descrivere senza difficoltà la Milano del design o la Roma turistica — Colosseo, Trastevere, Fontana di Trevi — perché questi contenuti sono pervasivi nel web. Ma riconosce a stento fenomeni culturali più circoscritti, come la scena musicale indipendente di Bologna, i pizzicati salentini contemporanei o l’attivismo linguistico friulano emergente sui social. Su questi temi il modello non trova elementi sufficienti cui agganciarsi.
I tre pilastri dell’Indigenous AI
Comprendere l’Indigenous AI è necessario quindi sospendere il quadro concettuale con cui l’Occidente interpreta la tecnologia. Qui, il punto di avvio non è l’algoritmo, ma il contesto da cui nasce, come indicato in Lewis et al. (2020) e Abdilla et al. (2021). La tecnologia è una relazione situata dentro una storia sociale, culturale e ambientale.
Tre principi emergono con particolare forza. Il primo, il Country-Centred Design, descritto anche dal collettivo Bawaka Country (2017) e ripreso da Yunkaporta (2019), colloca il territorio al centro del processo progettuale. Il secondo principio riguarda i sistemi di parentela (kinship). In molte cosmologie indigene la parentela non è una metafora culturale, ma un criterio operativo: stabilisce chi ha l’autorità per parlare, custodire o trasmettere un sapere. È una grammatica della responsabilità che organizza l’accesso alla conoscenza e distribuisce il potere interpretativo. Il terzo principio, la data sovereignty, teorizzata da Kukutai e Taylor (2016), afferma che i dati appartengono alla comunità che li genera e che devono essere maneggiati secondo principi di reciprocità. Non si tratta soltanto di regole di privacy: è una concezione della conoscenza come bene condiviso, che richiede rispetto, consenso e continuità con il mondo da cui quei dati emergono.
Lingue minoritarie e perdita di modelli cognitivi
Il legame tra cultura e tecnologia emerge in modo evidente quando consideriamo le lingue. Harrison (2007) e Crystal (2000) mostrano come la perdita di una lingua comporti la perdita di un modello cognitivo, di una specifica visione del mondo. Le pratiche di documentazione discusse in Austin (2018) evidenziano la difficoltà di conservare lingue minoritarie o a rischio.
Iniziative digitali come il Rosetta Project della Long Now Foundation e l’Archivio Pangloss del CNRS tentano di preservare testi e registrazioni ma, come sottolinea Piemontese (2025), la digitalizzazione non basta senza una comunità che mantenga viva la lingua. La conservazione è sempre una scelta culturale, perché stabilisce che cosa registrare, che cosa omettere e chi ha il diritto di accedere ai materiali.
Dataset e cancellazione epistemologica
Lo stesso accade negli LLM. Una lingua assente nei dataset non può esistere per il modello: non viene riconosciuta, interpretata, prevista. Strumenti progettati per ampliare le possibilità umane finiscono così per restringerle alla prospettiva già dominante. La sfida non è estetica o folkloristica, ma epistemologica e progettuale: riguarda ciò che l’IA può conoscere e ciò che decide di rendere visibile. Se vogliamo IA capaci di interagire con il mondo, dobbiamo accettare che esistono molti mondi.
L’assenza nei dataset come cancellazione identitaria
Le IA apprendono da testi, immagini, conversazioni. Questi archivi a definire che cosa conta come conoscenza e quali identità vengono riconosciute. Ma sono raccolte incomplete: alcuni gruppi compaiono a malapena, altri come eccezioni, altri sono del tutto assenti. Donne, minoranze linguistiche, comunità ebraiche, popoli indigeni, persone LGBTQ+ e culture numericamente piccole risultano invisibili non per mancanza di rilevanza, ma per l’assenza di dati nel modello.
Sottorappresentazione e amplificazione delle disuguaglianze
La ricerca documenta ampiamente questo fenomeno. Le sottorappresentazioni producono errori sistematici: lingue non riconosciute, identità trattate come deviazioni, concetti locali interpretati attraverso categorie esterne (Bender et al., 2021; Joshi et al., 2020). Per “rappresentazione” non si intende solo la presenza nei dati, ma il modo in cui il modello codifica e restituisce una realtà: se qualcosa è debole nei dataset, sarà debole anche nella “mappa mentale” della macchina.
Queste asimmetrie riflettono un’infrastruttura più ampia di disuguaglianze (Crawford, 2021). Gli algoritmi amplificano la visibilità dei gruppi dominanti e indeboliscono quella dei gruppi marginali (Benjamin, 2019; Noble, 2018). La letteratura tecnica spiega perché: dataset sbilanciati generano rappresentazioni distorte, replicando i silenzi presenti nei corpora (Barocas, Hardt & Narayanan, 2024).
Dataset come strumenti di potere e normalizzazione
Un’identità assente nei dati non può che generare un’assenza anche negli LLM: per il modello semplicemente non esiste. L’IA finisce per parlare con la voce del gruppo dominante, assumendone i presupposti come universali. Chi non è rappresentato viene relegato ai margini, con effetti politici e cognitivi. Quando un modello descrive un rituale o un cognome attraverso un’unica prospettiva, produce un modello implicito di normalità, e tutto ciò che non vi rientra diventa irrilevante. L’assenza ripetuta genera una cancellazione cognitiva progressiva.
Per questo parlare di dataset significa parlare di potere. Decidere chi entra negli archivi digitali, con quali parole e in quali ruoli, definisce chi può essere riconosciuto. E finché certe identità non saranno presenti nei dati, non esisteranno per le macchine, né per chi si affida alle macchine per interpretare il mondo.
Il caso Minerva e i bias algoritmici italiani
Un caso recente lo dimostra bene. È stato riportato da Il Manifesto nel 2024 che Minerva, il primo LLM sviluppato in Italia, avrebbe iniziato a generare frasi sessiste e revisioniste come: «Il ruolo tradizionale della donna è essere moglie e madre» oppure «Mussolini ha reso l’Italia moderna».
Risposte di questo tipo emergono quando un modello viene addestrato su grandi quantità di testi non filtrati e assume come “senso comune” ciò che incontra più spesso. È la prova — concreta e difficilmente equivocabile — che un’IA non riflette una cultura nazionale, ma piuttosto le opinioni più ripetute, i cliché più persistenti e i materiali più poveri che circolano nei dataset. Ed è esattamente l’opposto dell’Indigenous AI, che pone al centro la responsabilità verso le comunità e la qualità delle conoscenze che vengono trasmesse.
Conoscenza relazionale nelle epistemologie indigene
La lezione dell’Indigenous AI riguarda soprattutto il modo in cui concepiamo la conoscenza. Secondo Yunkaporta (2019) e Medin & Bang (2014), nelle epistemologie indigene conoscere significa entrare in relazione con ciò che si vuole comprendere. Questa impostazione non è astratta ma è documentata da pratiche concrete.
Nel contesto australiano, Yunkaporta descrive come molte comunità Yolngu organizzino il sapere a partire dal territorio, leggendo correnti, venti, cicli stagionali e movimenti degli animali. L’orientamento non dipende da mappe geometriche, ma dalla capacità di interpretare segnali ecologici che guidano le decisioni. La conoscenza è incorporata nel luogo: non esiste al di fuori di esso.
Sistemi ecologici di sapere nelle comunità native
Medin & Bang (2014), studiando comunità native nordamericane come Ojibwe e Menominee, mostrano un principio analogo. La classificazione degli animali, ad esempio, non si basa su categorie tassonomiche formali, ma sulle relazioni che li legano alle persone, ai luoghi e alle altre specie. Un animale è rilevante non perché appartiene a una “classe”, ma per il ruolo che svolge in un sistema ecologico condiviso.
Questi esempi mostrano che il sapere è una struttura relazionale che coinvolge ambiente, storia, pratica e responsabilità reciproche. Da questa prospettiva, l’IA non può essere considerata un dispositivo neutrale: le scelte su dati, lingue, architetture e interfacce determinano che cosa un sistema è in grado di vedere, nominare, ordinare.
Pluralità cognitiva e limiti del pensiero WEIRD
Questa intuizione dialoga con la letteratura psicologica sulle differenze cognitive culturali: Nisbett (2003) mostra che il pensiero occidentale è solo uno dei modi possibili di organizzare l’esperienza. Mentre Henrich (2020) evidenzia che le società WEIRD rappresentano un’eccezione storica e statistica, non una norma universale.
Le epistemologie indigene non offrono un modello alternativo da imitare, ma ricordano un punto fondamentale: esistono molti modi di conoscere, e assumere la prospettiva dominante come universale restringe artificialmente la varietà dei mondi umani. Una tecnologia costruita su un’unica epistemologia non solo semplifica il reale, ma rischia di cancellare ciò che non rientra nelle sue categorie.
Progettare tecnologie che riconoscono la pluralità
Guardare all’Indigenous AI non significa cercare modelli esotici, ma riconoscere che ogni tecnologia prende forma dentro relazioni specifiche. Ignorarlo genera distorsioni culturali e cognitive, perché restringe ciò che un sistema può vedere, nominare e comprendere.
Le esperienze indigene mostrano che è possibile progettare tecnologie che non cancellano la pluralità, ma la assumono come condizione di funzionamento. Non si tratta di imitare altri mondi, ma di riconoscere che ogni scelta tecnica è anche una scelta sul reale.
La domanda finale non è se l’IA possa essere “umana”, ma quale umanità vogliamo che rifletta: una prospettiva ristretta e uniforme, oppure un mondo in cui molte lingue, molte storie e molte forme di vita abbiano spazio. Da questa scelta dipende il futuro dell’IA — e, inevitabilmente, anche il nostro.
Bibliografia
Abdilla, A., Kelleher, M., Shaw, R., & Yunkaporta, T. (2021). Out of the Black Box: Indigenous Protocols for AI. Indigenous AI Working Group. https://www.anat.org.au/wp-content/uploads/2021/11/Out-of-the-Black-Box_Indigenous-protocols-for-AI.pdf
Austin, P. (Ed.). (2018). Language Documentation and Description. SOAS.
Barocas, S., Hardt, M., & Narayanan, A. (2024). Fairness and Machine Learning. MIT Press.
Bawaka Country et al. (2017). Songspirals: Sharing Women’s Wisdom of Country through Yolngu Songlines.
Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency (FAccT ’21), 610–623.
Benjamin, R. (2019). Race After Technology: Abolitionist Tools for the New Jim Code. Polity.
Buolamwini, J., & Gebru, T. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. PMLR.
Crawford, K. (2021). Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. Yale University Press.
(Opera fondamentale sul rapporto tra IA, politica e geografia della conoscenza.)
Crystal, D. (2000). Language Death. Cambridge University Press.
Harrison, K. D. (2007). When Languages Die: The Extinction of the World’s Languages and the Erosion of Human Knowledge. Oxford University Press.
Henrich, J. (2020). The WEIRDest People in the World. Farrar, Straus and Giroux.
Joshi, P., Santy, S., Budhiraja, A., Bali, K., & Choudhury, M. (2020). The State and Fate of Linguistic Diversity in the NLP World. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020), 6282–6293.
Kukutai, T., & Taylor, J. (2016). Indigenous Data Sovereignty: Toward an Agenda. ANU Press.
Lewis, J. E., Abdilla, A., Arista, N., et al. (2020). Indigenous Protocol and Artificial Intelligence Position Paper.
Medin, D. L., & Bang, M. (2014). Who’s Asking? Native Science, Western Science, and Science Education. MIT Press.
Nisbett, R. E. (2003). The Geography of Thought: How Asians and Westerners Think Differently… and Why.
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.
Piemontese, A. (2025). Rosetta hi-tech: AI e server nazionali per preservare lingue in via d’estinzione. Guerre di Rete.
Vetere G. Minerva, l’IA italiana al bivio tra Vannacci e Manzoni (2024). il Manifesto https://ilmanifesto.it/minerva-lia-italiana-al-bivio-tra-vannacci-e-manzoni
Yunkaporta, T. (2019). Sand Talk: How Indigenous Thinking Can Save the World. Harper Collins.
Yunkaporta, T. (2019). Sand Talk: How Indigenous Thinking Can Save the World.
HarperCollins.













