l’inchiesta del NYT

Perché i video AI per bambini su YouTube sfuggono alle regole Ue



Indirizzo copiato

I video AI per bambini su YouTube stanno diventando un fenomeno di massa, spinto dai sistemi di raccomandazione e da un’economia basata sulle visualizzazioni. Un’inchiesta del New York Times indica che, per i più piccoli, il rischio non è solo nella qualità dei contenuti, ma negli effetti sullo sviluppo

Pubblicato il 3 mar 2026

Maurizio Carmignani

Founder & CEO – Management Consultant, Trainer & Startup Advisor



youtube (1)

Il New York Times ha pubblicato nei giorni scorsi un’indagine che ha analizzato oltre 1.000 video raccomandati ai bambini su YouTube. Il risultato è preoccupante.

Video AI per bambini: cosa rivela l’inchiesta del New York Times

L’algoritmo della piattaforma spinge sistematicamente verso i feed dei più piccoli una quantità crescente di video generati dall’intelligenza artificiale, spesso privi di senso narrativo, con animali deformati, testi incomprensibili e scene caotiche che si susseguono a ritmo forsennato.

Il fenomeno non è di nicchia. In una sola sessione di 15 minuti, dopo aver guardato un video di CoComelon, uno dei canali per bambini più popolari al mondo, oltre il 40% dei video raccomandati conteneva elementi visivi generati dall’AI. I canali che producono questi contenuti sono spesso anonimi, si presentano come educativi, e pubblicano anche più video al giorno grazie a strumenti come Runway e Google Whisk, accessibili a chiunque e praticamente gratuiti. Alcuni di questi canali hanno accumulato centinaia di milioni di visualizzazioni.

Il disturbante algoritmo di Youtube per i bambini

Il meccanismo economico è semplice, più view significano più entrate pubblicitarie tramite il YouTube Partner Program. Nessuno verifica cosa guardano i bambini. Nessuno certifica che i contenuti abbiano un valore educativo reale.

Il danno: non è un problema estetico, è cognitivo

Prima di parlare di regole, è importante capire perché questi video sono problematici. Non si tratta semplicemente di contenuti brutti o mal fatti, il problema è strutturale. I bambini sotto i 5 anni hanno sistemi di attenzione ancora in formazione. Per apprendere qualcosa, una lettera, un colore, il nome di un animale, hanno bisogno di contesto, ripetizione e una narrazione con un inizio e una fine riconoscibili. I video AI analizzati non hanno nulla di tutto questo: durano meno di 30 secondi, cambiano scena continuamente e spesso mostrano situazioni fisicamente impossibili (un cavallo che nasce da un uovo, una giraffa che tuffa in piscina). Gli esperti di sviluppo cognitivo citati nell’inchiesta parlano di overload cognitivo: il bambino viene bombardato di stimoli che non riesce a elaborare, nel tentativo di farlo esaurisce le risorse mentali senza imparare nulla.

C’è anche un rischio più sottile. I bambini piccoli non distinguono ancora il reale dal fantastico. Quando vedono contenuti iperrealisti ma fisicamente impossibili, costruiscono schemi mentali distorti su come funziona il mondo. L’American Academy of Pediatrics, nel suo nuovo documento di policy pubblicato a febbraio 2026, avverte che le piattaforme progettate per massimizzare il coinvolgimento, non il benessere dei bambini, rappresentano un rischio sistemico per lo sviluppo e chiede un approccio child-centered nella progettazione dei media digitali. 

La risposta di YouTube: reattiva, non sistemica

Contattata YouTube ha risposto sospendendo dal Partner Program i cinque canali segnalati dai giornalisti e rimuovendo tre video da YouTube Kids. Una risposta che dice molto sul problema, la piattaforma non ha un sistema proattivo di rilevamento. Interviene solo quando qualcuno segnala.

YouTube obbliga i creator a dichiarare l’uso dell’AI solo per contenuti realistici, ovvero quelli che un utente potrebbe scambiare per reali. I video animati assurdi per bambini non rientrano in questa categoria: non devono essere etichettati, i creator non lo fanno. Il peso di identificare e filtrare questi contenuti ricade interamente sui genitori, il che è chiedere qualcosa di difficile anche agli esperti.

Il quadro europeo: gli strumenti ci sono, ma non coprono questo caso

L’Unione Europea dispone di tre strumenti principali che, in teoria, potrebbero intervenire su questo fenomeno. Vale la pena capire cosa prevedono e dove possono arrivare.

Il Digital Services Act (DSA)

YouTube è classificata come Very Large Online Platform (VLOP) ai sensi del DSA, con oltre 45 milioni di utenti attivi nell’UE. Questo la obbliga a condurre valutazioni del rischio sui propri algoritmi, in particolare rispetto ai minori, e ad adottare misure di mitigazione proporzionate, incluso rispetto ai sistemi di raccomandazione. La domanda aperta è: la distribuzione massiva di video AI privi di valore cognitivo ai bambini sotto i 5 anni configura già una violazione del DSA? Sul piano teorico, si potrebbe argomentare di sì. Sul piano pratico, nessuna indagine risulta aperta su questo specifico fenomeno. La Commissione europea nel 2026 sta intensificando l’enforcement DSA, ma con un focus su age assurance e contenuti esplicitamente dannosi, non su questo tipo di rischio più sottile.

L’AI Act, articolo 50: il paradosso del labeling

Dal 2 agosto 2026 entrano in vigore gli obblighi di trasparenza dell’AI Act. L’articolo 50 impone di etichettare i contenuti AI-generated realistici: deepfake, avatar sintetici, voci artificiali che imitano persone reali. Qui si apre un paradosso normativo preciso: i contenuti più dannosi per i bambini piccoli, ovvero i video animati caotici e cognitivamente sovraccarichi, non rientrano nella definizione di realistici. Non devono essere etichettati. La norma è stata progettata per proteggere l’adulto dalla disinformazione, non il bambino di 2 anni dall’overload cognitivo.

Il Codice di Pratica sul labeling AI

La Commissione sta finalizzando entro giugno 2026 un Codice di Pratica volontario su marcatura e rilevamento dei contenuti AI-generated. Il secondo draft è atteso per metà marzo. Anche qui, il perimetro è focalizzato su deepfake e contenuti di disinformazione per adulti. I contenuti AI per la primissima infanzia non sono nell’agenda.

Italia: AGCOM ha gli strumenti, ma guarda altrove

In Italia, AGCOM svolge il ruolo di Digital Services Coordinator per il DSA ed è dotata di strumenti normativi rilevanti. La delibera 298/23/CONS prevede procedure di intervento per contenuti che possono nuocere allo sviluppo fisico, psichico o morale dei minori, una formulazione che, in teoria, potrebbe già coprire i danni cognitivi descritti in questo articolo. Il problema è che AGCOM ha finora applicato questo strumento esclusivamente a contenuti esplicitamente violenti, pornografici o di odio. Il danno cognitivo prodotto da video AI pseudo-educativi per bambini sotto i 5 anni non è ancora stato oggetto di intervento.

Cosa servirebbe davvero

Il punto non è vietare l’AI nei contenuti per bambini. Come dimostra la ricerca di Ying Xu della Harvard Graduate School of Education, l’AI ben progettata può supportare l’apprendimento e soddisfare la curiosità dei bambini in modi nuovi. Il problema è l’assenza totale di design pedagogico e di accountability nella produzione di massa.

Servirebbero tre cose che oggi mancano. La prima è la responsabilità algoritmica: non basta moderare i singoli contenuti segnalati, bisogna valutare se il sistema di raccomandazione stesso produce danni, specialmente verso le fasce d’età più vulnerabili. La seconda è l’inclusione di esperti di sviluppo cognitivo infantile nei tavoli regolatori europei, esattamente come le emittenti televisive hanno standard editoriali specifici per i programmi rivolti ai bambini. La terza è un aggiornamento del perimetro normativo: il concetto di contenuto dannoso per i minori deve evolversi per includere non solo ciò che è esplicitamente violento o sessuale, ma anche ciò che è nocivo per lo sviluppo cognitivo.

L’Europa è in anticipo sul mondo nella regolamentazione dell’AI. Ma il test del bambino di 2 anni davanti a YouTube Shorts rivela un limite preciso, la sofisticazione normativa non ha ancora raggiunto la semplicità del problema.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x