L’attuale panorama dell’innovazione tecnologica è caratterizzato da una tensione profonda tra la narrazione di sistemi autonomi onniscienti e la realtà di una dipendenza strutturale dal contributo umano.
L’intelligenza artificiale (IA), spesso presentata come un’entità autosufficiente capace di superare le capacità biologiche, rivela, a un’analisi sociotecnica rigorosa, di essere profondamente radicata in un sistema definito come “eteromazione” e sostenuta da una “infrastruttura umana” spesso invisibile (Nemer & Sobral, 2025).
Al centro di questo dibattito emerge il concetto di “androritmo” (Leonhard, 2016), un neologismo che funge da bussola etica per preservare l’essenza dell’umano in un’era dominata dagli algoritmi.
La transizione verso una “IA umana” non è dunque soltanto un obiettivo tecnico, ma una necessità ontologica e politica, volta a ricollocare l’essere umano al centro dello sviluppo tecnologico, garantendo che il progresso serva il benessere collettivo e realizzando una rinascita dell’individuo piuttosto che la sua marginalizzazione.
Indice degli argomenti
Il concetto di androritmo: origine e significato
Il termine “androritmo” (androrhythm) rappresenta uno dei pilastri concettuali introdotti dal futurista tedesco Gerd Leonhard nel suo saggio Technology vs. Humanity: The coming clash between man and machine (Leonhard, 2016). Si tratta di un termine coniato per stabilire un contrasto dialettico con il concetto di “algoritmo”, che definisce la logica delle macchine basata su dati, efficienza e ottimizzazione binaria. Mentre l’algoritmo cerca la soluzione più rapida ed efficiente attraverso il calcolo statistico, l’androritmo comprende i “ritmi umani” che sfuggono alla codifica matematica: l’empatia, la compassione, l’intuizione, la creatività e la capacità di narrazione.
L’origine di questo concetto risiede nella consapevolezza che l’umanità si trova a un punto di svolta esponenziale. Leonhard sostiene che nei prossimi vent’anni la specie umana cambierà più di quanto non sia avvenuto nei precedenti trecento anni, proprio a causa della pervasività delle tecnologie digitali che fungono da “cervello esterno”. In questo scenario, l’androritmo funge da meccanismo di difesa per quegli aspetti dell’esperienza umana che non possono essere ridotti a pura informazione o automatizzati senza perdita di significato.
Il significato profondo degli androritmi è dunque legato alla capacità umana di gestire l’ambiguità, il contesto e l’imprevisto. Una macchina può vincere a scacchi o a Go, ma non possiede la comprensione delle emozioni o la capacità di interpretare i valori profondi di un interlocutore in pochi secondi, al pari di un essere umano. Gli androritmi includono elementi che presto potrebbero diventare “reperti” in un mondo iper-automatizzato, come il mistero, la serendipità, il segreto e persino la capacità di commettere errori significativi. La tesi di Leonhard è che per ogni avanzamento algoritmico, sia necessario rafforzare proporzionalmente l’androritmo corrispondente, affinchè la tecnologia possa trasformarsi in uno strumento di potenziamento piuttosto che di sostituzione.
L’infrastruttura umana invisibile dell’intelligenza artificiale
Nonostante la retorica della completa automazione, i sistemi di IA contemporanei operano come “assemblaggi sociotecnici” in cui il lavoro umano è essenziale e continuo, sebbene deliberatamente occultato (Nemer & Sobral, 2025). Questo fenomeno è descritto attraverso il concetto di “eteromazione” che, dialetticamente contrapposto ad “automazione”, indica un regime di lavoro in cui le funzioni della macchina sono supportate da una rete distribuita di lavoratori umani che intervengono per correggere, annotare e monitorare i processi algoritmici (Ekbia & Nardi, 2014).
Infatti, l’infrastruttura umana dell’IA (HIAI) costituisce lo strato critico che rende possibile il funzionamento di sistemi definiti “intelligenti”. Questa infrastruttura non è periferica o transitoria, ma rappresenta una componente strutturale dell’architettura tecnica dell’IA. Essa si manifesta in diverse forme di lavoro precario e frammentato (microlavoro), spesso confinato in aree economicamente svantaggiate del mondo, come il Kenya o il Venezuela, dove i lavoratori vengono pagati meno di due dollari l’ora per filtrare contenuti tossici o addestrare modelli linguistici.
Le forme del lavoro invisibile: dal ghost work al RLHF
Nell’ambito dei contesti microlavorativi, l’eteromazione si verifica quando le infrastrutture tecniche delle piattaforme trattano i problemi di gestione dei lavoratori come se fossero problemi computazionali, nascondendo la natura occupazionale della relazione uomo-macchina: l’eteromazione dissimula la presenza umana, misconoscendo le abilità, le competenze e l’apprendimento dei microlavoratori, finendo per estraniarli dal processo produttivo in una nuova forma di alienazione (Tubaro, 2022). L’analisi dell’eteromazione rivela diverse categorie di input umano necessari per colmare il divario tra la capacità computazionale dell’IA e la complessità della realtà del sistema tecnologico lavorativo:
- Ghost Work: si tratta di compiti lavorativi segmentati e ripetitivi, noti come microtask, eseguiti da lavoratori su piattaforme di crowdsourcing come Amazon Mechanical Turk (MTurk) o Appen, che connettono le aziende con una forza di lavoro globale. Questi lavoratori sono spesso inconsapevoli del sistema finale che stanno addestrando.
- Annotazione dei dati: essenziale per la guida autonoma, dove annotatori umani devono tracciare bounding boxes (rettangoli di delimitazione) intorno a oggetti complessi in scene urbane per distinguere tra ciclisti, bidoni della spazzatura e segnali stradali. Questo processo definisce la cosiddetta ground truth (verità di base) necessaria per l’apprendimento automatico.
- Moderazione dei contenuti e fact-checking: in contesti di crisi, come le recenti inondazioni in Brasile, il discernimento umano è indispensabile per verificare post sensibili e distinguere la verità dalla menzogna, un compito che gli algoritmi di fact-checking non riescono a svolgere autonomamente a causa della mancanza di sensibilità culturale e contestuale.
- Reinforcement Learning from Human Feedback (RLHF): un processo in cui gli esseri umani valutano e classificano le risposte dei Large Language Models (LLM) per allinearli ai valori umani e alla sicurezza, spesso esponendosi a contenuti traumatici senza supporto adeguato.
L’eteromazione solleva rilevanti questioni etiche legate alla visibilità e allo sfruttamento dei lavoratori. Le aziende tecnologiche promuovono una visione di efficienza macchinale che cancella l’origine sociale e culturale del lavoro necessario per produrla. Il termine “Artificial Artificial Intelligence”, coniato da Amazon, esemplifica questa tendenza a inquadrare il lavoro cognitivo umano come un’estensione del calcolo algoritmico, privandolo della sua dignità e del suo riconoscimento come androritmo fondamentale.
Sistema 0: l’IA come preprocessore cognitivo
Oltre alla dimensione lavorativa, l’IA sta riconfigurando l’architettura del pensiero umano attraverso quello che viene definito “Sistema 0” (Chiriatti et al., 2025). Questo framework estende la teoria del doppio processo elaborata dallo psicologo israeliano Daniel Kahneman, che distingue tra il Sistema 1 (intuitivo, veloce e automatico) e il Sistema 2 (deliberativo, lento, logico e riflessivo).
Il Sistema 0 agisce come uno strato precognitivo: un’infrastruttura algoritmica che modula e pre-elabora le informazioni prima che esse vengano ingaggiate dal pensiero cosciente. A differenza degli strumenti cognitivi tradizionali, che fungono da depositi passivi (come un’agenda o un libro), il Sistema 0 è generativo e autonomo, capace di filtrare, classificare e “spingere” (nudging) l’informazione in modi che influenzano sottilmente ma potentemente il giudizio umano.
Il Sistema 0 si distingue per la sua capacità di modellare il substrato informativo su cui operano i Sistemi 1 e 2. Si tratta di una sorta di “pensiero esterno” caratterizzato da:
- pervasività e tracciabilità: le interazioni continue con l’IA modificano i meccanismi sottostanti di percezione ed emozione.
- personalizzazione: i sistemi adattano gli output in base ai dati dell’utente, creando ambienti cognitivi individualizzati che possono però portare a isolamento ideologico.
- dipendenza semantica: nonostante la sua potenza statistica, il Sistema 0 manca di una capacità semantica indipendente; esso dipende dai Sistemi 1 e 2 per l’attribuzione di significato e profondità interpretativa.
L’integrazione del Sistema 0 soddisfa i criteri di Heersmink (2015) per l’estensione cognitiva, tra cui l’affidabilità, la fiducia e la trasparenza procedurale. Tuttavia, questa simbiosi introduce il paradosso del “comfort-crescita”, ossia la tensione tra il desiderio umano di sicurezza (comfort zone) e la necessità di uscire da essa per crescere, imparare e raggiungere nuovi obiettivi. Il paradosso sta nel fatto che, pur desiderando la crescita e lamentandoci della routine, temiamo l’ignoto e il rischio del cambiamento, rimanendo bloccati in una zona che diventa stagnante e ci impedisce di evolvere, trasformandosi in un alibi per non agire. Riducendo l’attrito cognitivo tra azione e inazione, l’IA può inibire la dissonanza produttiva necessaria per lo sviluppo intellettuale e la resilienza epistemica. Il rischio è quello di scivolare verso una “servitù inconscia”, in cui le scelte umane sono incosapevolmente modellate da algoritmi in modi non percepiti dall’utente.
Psicomatica: comprendere le menti artificiali
Per affrontare le sfide poste dai modelli linguistici avanzati, è stato introdotto il framework multidisciplinare della “psicomatica” (Riva et al., 2025), che fonde scienze cognitive, linguistica e informatica. L’obiettivo della psicomatica è esplorare come l’IA acquisisce, apprende e utilizza le informazioni rispetto ai sistemi biologici, evitando la trappola dell’antropomorfizzazione ingenua.
La ricerca in ambito psicomatico rivela differenze fondamentali tra la cognizione umana e il funzionamento degli LLM. Mentre gli esseri umani apprendono il linguaggio attraverso interazioni sociali, emotive e situazionali prolungate nel tempo, i modelli come GPT-4 apprendono attraverso l’analisi statistica di enormi dataset predefiniti. La psicomatica evidenzia che l’IA non “comprende” il significato nel senso umano, ma crea estese mappe di sintassi-semantica basate su pesi associativi, evidenziando le differenze tra cognizione biologica e cognizione artificiale.
Un concetto chiave della psicomatica è l’analisi di come i Transformer utilizzano i meccanismi di “attenzione” (self-attention e cross-attention) per emulare le relazioni sintagmatiche e associative descritte dalla linguistica saussuriana. Tuttavia, la mancanza di un corpo fisico e di esperienze personali impedisce all’IA di cogliere la piena gamma della comunicazione umana, portando a fenomeni come le “allucinazioni”, dove il modello genera informazioni fattualmente errate perché statisticamente probabili nel suo spazio semantico.
Algoretica: un quadro etico per l’intelligenza artificiale
La gestione morale delle interazioni uomo-IA richiede una transizione verso la cosiddetta “algoretica”, un concetto sviluppato da Paolo Benanti (2025) per definire un quadro etico in cui i valori umani sono tradotti in direttive computabili. L’algoretica si pone l’obiettivo di garantire che il progresso tecnologico rimanga al servizio della persona e del bene comune, evitando che la logica dell’efficienza marginalizzi la dimensione umana.
Il pilastro fondamentale dell’algoretica è l’umiltà epistemica: le macchine devono essere progettate per “dubitare” di se stesse. Questo significa che il sistema deve essere capace di calcolare il proprio grado di incertezza e, quando questo supera una soglia critica o quando la decisione ha un peso etico significativo, deve stopparsi e consultare l’essere umano. Questo approccio garantisce che l’IA rimanga un supplemento e non un sostituto del giudizio morale umano.
L’algoretica identifica quattro dimensioni etiche attraverso le quali valutare l’impatto di un agente artificiale:
- Moralità delle azioni: valutazione dell’output rispetto a standard morali condivisi (es. discriminazione).
- Moralità degli effetti: analisi delle conseguenze a lungo termine dell’adozione di un sistema (es. impatto sul lavoro).
- Moralità delle regole: esame degli algoritmi e dei criteri di addestramento che guidano il comportamento della macchina.
- Moralità delle ragioni: analisi delle giustificazioni fornite dall’IA per le sue decisioni, specialmente in contesti conversazionali dove un chatbot può esprimere “opinioni” morali apprese durante il training.
L’urgenza di questo framework deriva dal fatto che le macchine che apprendono (Learning Machines) perdono la loro neutralità etica e diventano entità morali che influenzano attivamente il tessuto sociale. Il rischio di una “deferenza morale umana”, in cui le persone rinunciano alla propria capacità di giudizio a favore dell’autorità algoritmica, rende necessaria una governance che protegga l’autonomia individuale e la libertà di coscienza (meaningful human control): si pensi ad esempio ai sistemi d’arma autonomi, in grado di prendere decisioni di vita o di morte in autonomia basandosi sulla corrispondenza degli obiettivi rispetto ai dataset caricati, senza bisogno di coinvolgere l’operatore umano nella kill chain, ma determinando comunque una responsabilità morale sulla base delle azioni commesse. La vera sfida, dunque, non è quella di sostituire l’intelligenza umana con quella artificiale, ma quella rendere l’intelligenza artificiale più “umana”, passando dall’Artificial Artificial Intelligence (secondo la definizione introdotta da Amazon) ad una Human Artificial Intelligence.
Zero Sales Resistance: manipolazione nell’era dei big data
Uno dei pericoli più insidiosi descritti nella letteratura sulla IA umana è lo stato di “Zero Sales Resistance” (ZSR) (Riva et al., 2022). Questo concetto descrive l’incapacità degli individui di esercitare un giudizio critico di fronte alle spinte persuasive alimentate dai Big Data e dall’IA.
La ZSR viene raggiunta attraverso tre leve principali che bypassano i filtri androritmici della mente umana:
- Abolizione dello spazio-tempo: la connettività istantanea elimina il tempo necessario per la riflessione razionale, favorendo risposte impulsive e automatiche.
- Sovraccarico informativo: quando il cervello è sopraffatto da troppi dati, gli esseri umani tendono ad affidarsi a fattori viscerali, segnali ambientali e comportamenti imitativi o gregari (herd behavior).
- Profilazione psicologica e footprint digitali: l’IA utilizza le tracce lasciate sui social media per sviluppare appelli persuasivi su misura per il profilo psicologico di ogni utente, erodendo la resistenza naturale a tattiche manipolatorie e persuasive (Galetta, 2025).
Il meccanismo psicologico alla base della ZSR è legato al fatto che la nostra mente, al livello intuitivo, utilizza tecniche di predizione bayesiana simili a quelle dell’IA. Questa somiglianza rende le persone vulnerabili a una “servitù inconscia” in cui le preferenze e i comportamenti vengono modellati senza consapevolezza. Per contrastare questo fenomeno, è fondamentale sviluppare l’androritmo del pensiero critico attraverso un’educazione che coltivi le “molteplici intelligenze” e non riduca l’individuo ad utente inconsapevole di servizi digitali.
Creatività estesa: l’IA nei domini artistici
L’applicazione dell’IA nei domini creativi offre un terreno di prova fondamentale per l’integrazione degli androritmi. Il framework della “creatività estesa” (Gaggioli et al., 2025) propone tre modalità relazionali per definire il rapporto uomo-macchina (3S):
- Supporto (Support): l’IA funge da strumento che automatizza compiti tecnici o ripetitivi (es. correzione del colore in grafica), lasciando all’umano il controllo estetico e concettuale. Questa modalità potenzia la creatività quotidiana (little-c).
- Sinergia (Synergy): uomo e macchina collaborano in un dialogo dinamico. L’IA propone alternative e identifica schemi latenti che spingono il creatore professionista verso nuove direzioni (pro-c creativity).
- Simbiosi (Symbiosis): una fusione profonda in cui i confini tra contribuzione umana e artificiale si sfumano, potenzialmente mediata da interfacce cervello-computer (BCI). Questa modalità mira a trasformare radicalmente i domini creativi (big-c creativity).
Tuttavia, una meta-analisi condotta su 106 studi sperimentali (Vaccaro et al., 2024) rivela che l’integrazione uomo-IA spesso produce risultati inferiori rispetto alla migliore delle due parti prese singolarmente (performance loss), specialmente in compiti decisionali analitici. Al contrario, si registrano guadagni significativi nei compiti di creazione di contenuti. Questo suggerisce che l’efficacia della collaborazione dipende dalla natura del compito e dalla capacità dell’umano di decidere quando fidarsi dell’algoritmo e quando affidarsi al proprio androritmo intuitivo.
Ragionamento causale: verso un’IA scientifica
Una limitazione strutturale dell’attuale IA, inclusi gli LLM, è l’affidamento quasi esclusivo alla correlazione statistica piuttosto che alla causalità. Per evolvere verso sistemi più sicuri e interpretabili, è necessario che l’IA implementi la “scala della causalità” (Consonni & Castelletti, 2025). Infatti, il passaggio alla “Big AI” richiede il ripristino di intuizioni meccanicistiche e il rispetto del metodo scientifico: un’IA capace di ragionamento causale non solo è più robusta e resiliente di fronte ai cambiamenti dell’ambiente (distribution shift), ma garantisce anche una maggiore equità, permettendo di separare i percorsi decisionali legittimi da quelli discriminatori. Questo approccio si contrappone alla tendenza energeticamente insostenibile di aumentare infinitamente i pesi dei modelli linguistici senza acquisire reale comprensione.
Il primato dell’androritmo: conclusioni e prospettive
L’analisi critica della letteratura evidenzia una chiara traiettoria per il futuro dell’IA. Sebbene la tecnologia algoritmica sia in grado di processare dati a scale inimmaginabili, essa rimane intrinsecamente dipendente da una vasta infrastruttura umana di eteromazione per acquisire un’apparenza di intelligenza e sicurezza (Nemer & Sobral, 2025). La vera sfida non è dunque la creazione di macchine che pensino come esseri umani o siano dotate di una protocoscienza, ma lo sviluppo di sistemi che agiscano come “estensioni cognitive” (System 0) capaci di rispettare e potenziare gli androritmi originali, integrandoli in esse, ossia l’etica, l’intuizione e la creatività (Leonhard, 2016).
Le implicazioni di questa analisi suggeriscono tre aree d’azione prioritarie:
- Visibilità e trasparenza del lavoro: è necessario riconoscere il ruolo dei “ghost workers” nella catena del valore dell’IA, trasformando l’eteromazione in una collaborazione equa e trasparente, in grado di preservare la dignità dell’uomo.
- Educazione alle molteplici intelligenze: per resistere alla manipolazione dei Big Data (Zero Sales Resistance), la società deve investire nella formazione di individui integri, capaci di discernimento morale e pensiero critico, dotandoli di una solida AI literacy.
- Implementazione dell’algoretica: i sistemi di IA devono essere dotati di “umiltà epistemica” e guidati da quadri normativi come la Humane AI Law per garantire che la tecnologia diventi realmente uno strumento di evoluzione umana e non un fine in sè.
In conclusione, il “buon futuro” prospettato da Leonhard (2016) dipende dalla nostra capacità di agire come architetti del futuro, piuttosto che come vittime del progresso. Rafforzare gli androritmi significa rivendicare la centralità umana in un mondo automatizzato, utilizzando la competenza digitale per gestire le attività di routine e liberare il potenziale umano per affrontare le grandi sfide della sostenibilità, dell’etica e della giustizia sociale. L’IA deve smettere di essere un “buco nero” di sfruttamento invisibile per diventare un prisma attraverso cui la saggezza umana può riflettersi e amplificarsi. La sfida per il futuro, dunque, non è essere schiavi della tecnologia, ma diventare più profondamente e irripetibilmente umani.
Bibliografia
Benanti, P. (2018). Oracoli. Tra algoretica e algocrazia. Roma: Luca Sossella Editore.
Benanti, P. (2025). Algor-ethics for a New Humanism. In G. Riva & M. Chiriatti (Eds.), Humane Artificial Intelligence: From Foundations to Application and Policy Framework (pp. 339-342). Milano: Vita e Pensiero.
Chiriatti, M., Ganapini, M. B., Panai, E., Wiederhold, B. K., & Riva, G. (2025). System 0: Transforming Artificial Intelligence into a Cognitive Extension. Cyberpsychology, Behavior, and Social Networking, 28(7), 534-542.
Consonni, G., & Castelletti, F. (2025). Causal Reasoning for Artificial Intelligence. In G. Riva & M. Chiriatti (Eds.), Humane Artificial Intelligence: From Foundations to Application and Policy Framework (pp. 163-176). Milano: Vita e Pensiero.
Ekbia, H., & Nardi, B. (2014). Heteromation and its (dis)contents: The invisible division of labor between humans and machines. First Monday, 19(6). https://doi.org/10.5210/fm.v19i6.5331.
Gaggioli, A., Bartolotta, S., Ubaldi, A., Gerardini, K., Sarcinella, E. D., & Chirico, A. (2025). Extended Creativity: A Conceptual Framework for Understanding Human-AI Creative Relations. In G. Riva & M. Chiriatti (Eds.), Humane Artificial Intelligence: From Foundations to Application and Policy Framework (pp. 135-161). Milano: Vita e Pensiero.
Galetta, G. (2025). Tecnologie persuasive e IA: quattro strategie per difendersi. Agendadigitale.eu, 23 dicembre. https://doi.org/10.5281/zenodo.18048457.
Heersmink, R. (2015). Dimensions of integration in embedded and extended cognitive systems. Phenomenology and the Cognitive Sciences, 14(3), 577-598. https://doi.org/10.1007/s11097-014-9355-1.
Leonhard, G. (2016). Technology vs. Humanity: The coming clash between man and machine. London: Fast Future Publishing.
Nemer, D., & Sobral, A. (2025). Artificial intelligence as heteromation: the human infrastructure behind the machine. AI & Society. https://doi.org/10.1007/s00146-025-02664-5
Riva, G., Wiederhold, B. K., & Succi, S. (2022). Zero Sales Resistance: The Dark Side of Big Data and Artificial Intelligence. Cyberpsychology, Behavior, and Social Networking, 25(3), 169-173. https://doi.org/10.1089/cyber.2022.0035.
Riva, G., Mantovani, F., Wiederhold, B. K., Marchetti, A., & Gaggioli, A. (2025). Psychomatics: A Multidisciplinary Framework for Understanding Artificial Minds. Cyberpsychology, Behavior, and Social Networking, 28(7), 515-523.
Riva, G., & Chiriatti, M. (Eds.) (2025). Humane Artificial Intelligence: From Foundations to Application and Policy Framework. Milano: Vita e Pensiero.
Tubaro, P. (2022). Learners in the Loop: Hidden Human Skills in Machine Intelligence. Sociologia del Lavoro, 163, 110-129.
Vaccaro, M., Almaatouq, A., & Malone, T. W. (2024). When combinations of humans and AI are useful: A systematic review and meta-analysis. Nature Human Behaviour, 8(12), 2293-2303.














