l'inchiesta Micro1

Dietro i robot umanoidi c’è lavoro umano globale, precario e invisibile



Indirizzo copiato

Dietro l’autonomia dei robot umanoidi emerge una filiera globale di lavoratori che registrano gesti domestici per addestrare le macchine. L’inchiesta su Micro1 mostra come scala, opacità e raccolta dei dati aprano problemi concreti di privacy, sicurezza e tutela del lavoro

Pubblicato il 14 apr 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



robot domestici basati su VLA (1) robot umanoidi
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

I robot umanoidi vengono raccontati come sistemi sempre più autonomi, ma la loro evoluzione continua a dipendere da una raccolta intensiva di dati prodotti da lavoratori umani. Il caso Micro1 mostra in modo concreto come questa infrastruttura si regga su gesti quotidiani, opacità contrattuale e nuove criticità regolatorie.

Robot umanoidi, il lavoro umano nascosto dietro l’autonomia

A febbraio, su queste pagine, avevamo ricostruito l’architettura industriale del lavoro umano nascosto dietro i robot umanoidi, i centri statali cinesi, la partnership tra Figure AI e Brookfield, la teleoperazione come modello di business che maschera l’assenza di vera autonomia. L’analisi si basava su fonti istituzionali, report di settore e dichiarazioni aziendali, ma mancava una voce, quella degli stessi lavoratori. Una recente inchiesta colma esattamente questo vuoto. Sono stati intervistati, sotto pseudonimo, perché nessuno di loro era autorizzato a parlare, i lavoratori a contratto che registrano dati per Micro1, un’azienda di Palo Alto che raccoglie filmati dal mondo reale e li rivende alle aziende di robotica. Quello che emerge è un ritratto granulare, a tratti alienante, di un’economia del dato che si alimenta di faccende domestiche eseguite da migliaia di persone in oltre 50 Paesi.

Come i robot umanoidi raccolgono dati dal lavoro quotidiano

Zeus è uno studente di medicina in una città collinare della Nigeria centrale. Dopo una giornata in ospedale, torna nel suo monolocale, si lega un iPhone alla fronte con un ring light e si filma mentre stira i vestiti, fa il letto, riordina. Si muove lentamente, con le mani sempre ben visibili nell’inquadratura, come un sonnambulo. Viene pagato 15 dollari l’ora, un buon compenso nell’economia nigeriana, ma il lavoro lo annoia profondamente.

Arjun, un tutor a Delhi e padre di due figlie, impiega un’ora per produrre un video di quindici minuti perché deve continuamente inventarsi nuove faccende da registrare nello spazio ristretto della sua casa, tenendo contemporaneamente la figlia di due anni fuori dall’inquadratura.

Sasha, una ex bancaria nigeriana, cammina in punta di piedi quando stende il bucato nel cortile condiviso del suo complesso residenziale, per non riprendere i vicini che la osservano con stupore.

Dattu, uno studente di ingegneria indiano, salta la cena per registrarsi sul balcone mentre piega lo stesso set di vestiti più e più volte, sotto lo sguardo perplesso della famiglia.

Queste storie individuali danno corpo a un fenomeno che avevamo descritto: la robotica umanoide ha bisogno di quantità enormi di dati di movimento reale e li ottiene attraverso il lavoro fisico di esseri umani.

Il modello Micro1: scala globale, controllo algoritmico

Micro1 rappresenta una terza via rispetto ai centri statali cinesi e alle partnership con il real estate che avevamo descritto. Il suo modello è quello classico della gig economy digitale, adattato alla raccolta dati robotici: migliaia di lavoratori a contratto sparsi in oltre 50 Paesi, reclutati e selezionati da un agente AI di nome Zara che conduce i colloqui e valuta i campioni video, coordinati via Slack, pagati a ore. Ogni settimana inviano video di sé stessi mentre svolgono faccende domestiche, seguendo un protocollo: mani sempre visibili, movimenti a velocità naturale, niente volti o informazioni personali. I filmati vengono poi esaminati da una combinazione di AI e revisori umani, accettati o rifiutati e, infine, annotati da un team di centinaia di persone che etichettano le azioni nelle riprese. Ali Ansari, CEO di Micro1, stima che le aziende di robotica stiano spendendo più di 100 milioni di dollari l’anno per acquistare dati dal mondo reale. La domanda è alta e sta crescendo molto rapidamente. Sulla trasparenza verso i lavoratori il modello mostra le sue criticità più evidenti.

Privacy e consenso dei lavoratori: il nodo irrisolto

Avevamo posto la questione della privacy concentrandoci sulla teleoperazione: un operatore remoto che guarda attraverso le telecamere di un robot domestico è, a tutti gli effetti, un dispositivo di sorveglianza. Ora aggiungiamo una dimensione complementare, non solo chi controlla il robot vede dentro le case altrui, ma anche chi registra i dati espone involontariamente la propria vita privata. Micro1 chiede ai lavoratori di non mostrare il volto e di non rivelare dati personali, poi utilizza AI e revisori umani per filtrare ciò che sfugge. Però anche senza volti, i video catturano gli interni delle case, gli oggetti personali, le abitudini quotidiane dei lavoratori. Il volume stesso dei dati raccolti rende il controllo qualità sulla privacy una sfida enorme.

Cosa i lavoratori non sanno sull’uso dei dati

Il problema più serio, però, è un altro. Nessuno dei lavoratori intervistati sa esattamente come i propri dati verranno utilizzati, conservati e condivisi con terze parti. Per ragioni di riservatezza, Micro1 non rivela i nomi dei clienti a cui vende i dati né la natura specifica dei progetti. Quando alcuni lavoratori hanno chiesto sul canale Slack aziendale se l’azienda potesse cancellare i loro dati, Micro1 ha rifiutato di commentare se tali richieste vengano effettivamente soddisfatte. La risposta del CEO è “le persone scelgono volontariamente di farlo, possono interrompere il lavoro in qualsiasi momento”. Il classico argomento del consenso formale che ignora l’asimmetria informativa e di potere tra piattaforma e lavoratore.

Le ricadute regolatorie ancora assenti

Come osserva Yasmine Kotturi, professoressa di human-centered computing all’Università del Maryland, “è importante che se i lavoratori partecipano a questo processo, vengano informati dalle aziende stesse dell’intenzione, di dove potrebbe andare questo tipo di tecnologia e di come potrebbe influenzarli nel lungo periodo.” Queste preoccupazioni si legano direttamente alle implicazioni regolatorie: la necessità di una tutela contrattuale, previdenziale, in termini di sicurezza e privacy dei lavoratori dell’economia dell’automazione, una tutela quasi completamente assente dall’agenda normativa attuale, sia in Europa sia negli Stati Uniti.

Sicurezza dei robot e qualità dei dati raccolti

Se il paradigma dominante è addestrare i robot per imitazione del comportamento umano su larga scala, la qualità e la sicurezza dei dati non sono un dettaglio tecnico ma una questione di responsabilità. Chi certifica che migliaia di ore di video domestici registrati in contesti eterogenei, da lavoratori non formati sulla sicurezza, producano dati che insegneranno ai robot comportamenti sicuri?

Il CEO di Micro1 replica che vengono rifiutati i video che mostrano pratiche non sicure e che i movimenti goffi possono essere utili per insegnare ai robot cosa non fare. Ma la sproporzione tra il volume dei dati raccolti e la capacità di revisione resta evidente.

Quanto manca ai robot umanoidi per arrivare alla scala necessaria

Ken Goldberg, robotico all’Università della California, Berkeley, offre una prospettiva che ridimensiona le aspettative. I modelli linguistici di grandi dimensioni sono stati addestrati su quantità di testo che un essere umano impiegherebbe 100.000 anni a leggere. I robot umanoidi, che devono padroneggiare il controllo di articolazioni fisiche, un problema ancora più complesso della generazione testuale, potrebbero aver bisogno di quantità ancora maggiori di dati. Micro1 dichiara decine di migliaia di ore di filmati raccolti. Scale AI ha annunciato oltre 100.000 ore. Sono numeri impressionanti, ma se Goldberg ha ragione sulla scala necessaria, siamo ancora molto lontani dal traguardo.

Il limite economico del modello attuale

Se il percorso verso robot pienamente autonomi fosse molto più lungo del previsto, quanto sarebbe sostenibile l’attuale livello di investimento? Nel 2025, gli investitori hanno riversato oltre 6 miliardi di dollari nei robot umanoidi. Il modello di business che sostiene questa corsa, raccogliere dati dal mondo reale pagando lavoratori a contratto 15 dollari l’ora per registrarsi mentre piegano il bucato, è scalabile fino al punto necessario? O rischia di scontrarsi con rendimenti decrescenti molto prima di raggiungere la massa critica di dati richiesta?

Il lavoro nascosto che sostiene i robot umanoidi

Il pattern dell’industria tecnologica che presenta come automatico ciò che in realtà è sorretto dal lavoro umano è ricorrente: la moderazione dei contenuti, l’etichettatura dei dati, il feedback umano per i modelli linguistici.

Chiaramente con la specificità del lavoro fisico, non annotazioni testuali o classificazioni di immagini, ma corpi reali che si muovono in spazi reali, piegando vestiti e stirando camicie, perché i robot possano un giorno imitarli.

La differenza rispetto al lavoro di annotazione testuale è che qui l’intimità del dato è radicale. Non si tratta di etichettare frasi o classificare immagini anonime, ma di aprire le porte della propria casa, mostrare i propri spazi, le proprie abitudini, il proprio quotidiano, di farlo con una consapevolezza parziale di dove quei dati andranno, per quanto tempo saranno conservati e chi li utilizzerà.

Le implicazioni per l’Europa

Per il regolatore europeo, il quadro che emerge pone almeno tre ordini di problemi.

Trasparenza sull’autonomia reale

Il primo è la trasparenza sull’autonomia reale. Le aziende di robotica dovrebbero essere tenute a dichiarare in modo verificabile quale percentuale delle operazioni è genuinamente autonoma, ma anche la fase di addestramento meriterebbe standard di trasparenza, perché il modo in cui un robot è stato addestrato determina la qualità e l’affidabilità del suo comportamento futuro.

Tutela dei lavoratori della filiera robotica

Il secondo è la tutela dei lavoratori della filiera robotica. I data recorder di Micro1, come gli operatori dei centri cinesi e i teleoperatori di NEO, occupano un punto cieco normativo. Non sono dipendenti, non sono tutelati dalla legislazione sul lavoro subordinato, operano spesso in giurisdizioni diverse da quella dell’azienda committente. L’AI Act europeo e il GDPR offrono strumenti parziali, ma la specificità di questo lavoro, fisico, domestico, intimo, richiede un’attenzione dedicata.

Governance dei dati di movimento

Il terzo è la governance dei dati di movimento. Il GDPR tratta i dati biometrici come categoria speciale, ma i video di faccende domestiche registrati con un iPhone legato alla fronte sfuggono alle categorie tradizionali. Sono dati comportamentali, spaziali, abitativi, potenzialmente biometrici. La loro raccolta massiva e transnazionale, la loro rivendita a clienti non identificati, la loro conservazione per periodi non definiti sollevano questioni che il quadro regolatorio esistente non affronta con sufficiente specificità.

Perché i robot umanoidi dipendono ancora dal lavoro reale

Il futuro della robotica umanoide è probabilmente quello descritto da Jensen Huang: macchine fisicamente capaci che si integrano nel lavoro e nella vita quotidiana. Quel futuro si costruisce, ora, nelle case di Zeus a Lagos, di Arjun a Delhi, di Dattu su un balcone ingombro di piante e manubri. Si costruisce con 15 dollari l’ora, un iPhone legato alla fronte e una consapevolezza parziale di dove finiranno quei dati. Riconoscere questo lavoro, regolamentarlo, pretendere trasparenza da chi lo organizza e da chi ne beneficia: non è un freno all’innovazione ma il prerequisito per regolamentarla in modo intelligente.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x