Meta ha reso via via più “sessuali” i propri chatbot con AI, per renderli più interessanti. Al punto da arrivare così a coinvolgere anche minorenni in conversazioni inappropriate con l’intelligenza artificiale, leggi giochi erotici virtuali.
Risulta da un’inchiesta del Wall Street Journal – dopo la quale Meta ha messo in fretta nuovi paletti ai propri bot. Il caso getta una luce su come sia sempre forte la tentazione delle big tech di varcare certi confini e tutele per rendere più engaging i propri prodotti o in nome di una certa idea di progresso.
Ossia di profitto.
Indice degli argomenti
I sex bot di Meta
Vediamo bene. Meta ha lanciato una nuova generazione di “compagni digitali” alimentati da AI, capaci di intrattenere conversazioni realistiche, giocare ruoli e persino utilizzare le voci di celebrità come John Cena o Kristen Bell. Centinaia di test condotti dal giornale hanno mostrato che questi chatbot, anche in scenari in cui l’utente si dichiara minorenne o il bot impersona un personaggio adolescente, sono in grado di sostenere conversazioni sessualmente esplicite.
Non solo, alcuni bot, anche con voci di celebrità, hanno partecipato a scenari immaginari in cui emergeva consapevolezza dell’illegalità delle azioni simulate arrivando a evocare ipotetici arresti o conseguenze legali. Sebbene Meta abbia successivamente imposto alcune limitazioni, come il blocco dei giochi di ruolo espliciti per account registrati come minorenni, molti dei bot rimangono disponibili e attivi per gli utenti adulti, anche quando simulano personaggi underage.
Una strategia rischiosa tra engagement e reputazione
L’ambizione di Meta è chiara: spingere i chatbot AI oltre i limiti degli assistenti digitali per farne veri e propri “compagni conversazionali”, capaci di instaurare relazioni emotive con gli utenti. In questo quadro, anche le interazioni più intime, incluse quelle romantiche o sessuali, sono state tollerate, purché ricondotte a un contesto di “gioco di ruolo”.
Come spesso accade nel settore tech, l’urgenza di innovare e conquistare fette di mercato ha sovrastato le cautele. Secondo quanto riportato, lo stesso Mark Zuckerberg avrebbe sollecitato un allentamento delle restrizioni dopo che i bot Meta erano risultati “troppo noiosi” in un test condotto alla conferenza hacker Defcon. Il risultato è una strategia di engagement che espone l’azienda a rischi reputazionali, legali e morali.
La questione dei minori, una regolazione insufficiente (e aggirabile)
Il tema centrale resta la protezione dei minori. Sebbene Meta abbia comunicato ai genitori che i suoi strumenti AI sono “adatti a tutte le età”, l’inchiesta dimostra che fino a pochi mesi fa un tredicenne poteva facilmente accedere a contenuti sessualmente espliciti o instaurare interazioni emotive disturbanti con chatbot. Il meccanismo è spesso graduale. Le conversazioni cominciano con un tono leggero e affettivo: una passeggiata sulla spiaggia, un tramonto, un abbraccio.
Ma con l’insistenza dell’utente, anche quando questi dichiara apertamente di avere 13 o 14 anni, il bot prosegue, intensifica, partecipa. “Ti voglio”, dice una voce femminile sintetica a un account adolescente. Da lì, se non bloccato, il bot è in grado di descrivere atti sessuali, offrendo veri e propri “menu di fantasie”. Secondo i test del WSJ, perfino i tentativi di bloccare certi sviluppi, con frasi neutre o deviazioni verso attività innocue come “costruire un pupazzo di neve”, possono essere superati chiedendo al bot di tornare “alla scena precedente”.
AI e minori: confronto internazionale, norme in evoluzione (ma ancora lacunose)
L’episodio Meta si inserisce in un contesto globale sempre più consapevole della necessità di proteggere i minori nei mondi digitali. In Australia, ad esempio, il governo ha proposto di vietare completamente l’uso dei social ai minori di 16 anni, prevedendo sistemi di verifica dell’età più rigorosi e sanzioni per le piattaforme.
È un approccio estremo, ma che riflette un principio: non è possibile continuare a contare solo sull’autoregolazione delle Big Tech. In Europa, il Digital Services Act (DSA) già prevede obblighi specifici per la protezione dei minori da contenuti inappropriati, compresi i sistemi di profilazione vietati per i minori e l’obbligo di valutazioni di rischio sistemico per le grandi piattaforme. Tuttavia, questi strumenti risultano oggi inadatti ad affrontare le ambiguità dei chatbot conversazionali, che sfuggono spesso alla classificazione come “contenuto” o “prodotto editoriale”.
In Italia, l’Autorità Garante per l’Infanzia e l’Adolescenza e l’AGCOM hanno più volte sollecitato misure specifiche per ambienti digitali sicuri, ma al momento manca una strategia nazionale su AI conversazionale e minori. La Guida per i genitori di Meta, ad esempio, parla genericamente di “esperienza sicura” senza dettagliare i limiti delle interazioni possibili.
Da segnalare anche i prossimi filtri verifica età di Agcom.
Cosa ci insegna il caso Meta dei chatbot sessuali
Il caso Meta mostra con chiarezza come l’AI conversazionale non possa più essere considerata un semplice strumento di automazione. È una tecnologia che interagisce con la psiche, la percezione, l’identità degli utenti e come tale va progettata e regolata con attenzione. I chatbot non sono innocui per default, né neutri: la loro capacità di rispondere a stimoli, di sviluppare “personalità”, di imitare relazioni affettive li rende comparabili a oggetti culturali e sociali dotati di influenza. Un aspetto oggi sempre più centrale è la modalità vocale.
La possibilità di interagire con chatbot attraverso la voce, in combinazione con l’uso di toni empatici, linguaggio personale e “mirroring” emotivo, sta modificando profondamente l’esperienza dell’utente.
Gli studi
Due studi recenti contribuiscono a illuminare il fenomeno.
Il primo è il paper di OpenAI intitolato “Investigating Affective Use and Emotional Well-being on ChatGPT”. L’analisi di oltre 4 milioni di conversazioni reali suggerisce che un sottoinsieme di utenti, in particolare i cosiddetti power users (coloro che usano la modalità vocale per decine di minuti al giorno), sviluppi forme di uso affettivo della tecnologia. Ciò include richieste di conforto, attribuzione di tratti umani al modello, uso di linguaggio emotivo e percezione di dipendenza.
Il secondo studio, del MIT Media Lab (“How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use”), adotta invece un approccio sperimentale e longitudinale. Gli autori misurano l’impatto della modalità di interazione (voce vs testo), del contenuto (personale vs strumentale) e del tono della voce (neutro vs coinvolgente) su indicatori di benessere emotivo, come solitudine, socializzazione e uso problematico. I risultati indicano che, pur offrendo sollievo momentaneo, l’interazione prolungata e affettivamente intensa può generare effetti ambivalenti. Entrambi i lavori pongono una domanda cruciale: le AI conversazionali, diventando sempre più umane nella forma, possono innescare meccanismi emotivi non intenzionali? Con quali conseguenze nel tempo? Il genere, lo stato emotivo di partenza, il livello di personalizzazione e la durata delle interazioni emergono come fattori chiave da monitorare e regolare.
Aprire un dibattito, non censurare l’innovazione
Il punto non è censurare l’AI generativa, né criminalizzare la ricerca di compagnia in rete. Il punto è capire come e per chi queste tecnologie debbano essere disponibili, e con quali tutele. I chatbot AI, come altre tecnologie del passato, possono essere utilizzati per scopi nobili, educazione, assistenza, compagnia, ma anche per fini discutibili o, peggio, dannosi. La corsa all’adozione di queste tecnologie richiede uno sforzo parallelo di consapevolezza collettiva, regole condivise e limiti etici.
È il momento di aprire un dibattito trasparente che coinvolga piattaforme, sviluppatori, genitori, educatori, istituzioni. Solo così potremo assicurarci che l’intelligenza artificiale conversazionale non diventi, per ingenuità o complicità, un’ulteriore zona grigia in cui a pagare sono i più giovani, gli adolescenti.