Il 14 ottobre 2025 Sam Altman ha annunciato su X che ChatGPT da dicembre introdurrà contenuti erotici per utenti adulti verificati, in nome del principio “treating adult users like adults”.
Una svolta che conferma un trend pro-eros delle big tech e in generale anti politicamente corretto. Lo fa già Elon Musk su Grok. Lo fa sempre più Meta su Facebook, Instagram e sui propri bot AI.
In nome del business, certo. Ma anche sotto il cielo rassicurante di un presidente Usa, Donald Trump, che ha fatto della libertà di espressione anti-woke la propria bandiera.
Indice degli argomenti
L’eros su Chatgpt
Altman ha spiegato che finora è stato difficile prevedere l’impatto psicologico di conversazioni a contenuto sessuale con un sistema privo di corpo e di limiti umani.
Ma ora la situazione è cambiata. Il miglioramento della sicurezza degli strumenti consentirebbe di valutare un progressivo allentamento delle norme. A favore dell’eros, appunto.
Chatgpt quindi introdurrebbe un sistema di verifica dell’età. Solo i maggiorenni verificati – con una previsione automatica dell’età – potranno accedere alla modalità a luci rosse.
Perché questa svolta erotica
Il punto è che i filtri hanno “reso il servizio meno utile/piacevole per molti utenti che non avevano problemi di salute mentale”, dice Altman.
“Ora che siamo riusciti a mitigare i gravi problemi di salute mentale e disponiamo di nuovi strumenti, saremo in grado di allentare in modo sicuro le restrizioni nella maggior parte dei casi”.
“Tra poche settimane, abbiamo in programma di rilasciare una nuova versione di ChatGPT” con una personalità “che si comporti in modo più simile a ciò che piaceva di 4o (speriamo che sia migliore!)”.
Gpt4 aveva più personalità di Gpt5, secondo alcuni utenti e ora Altman lo riconosce, anche se in passato aveva definito problematico questo comportamento (chiamando sycophantic, troppo accondiscendente, Gpt4).
Dietro questa frase misurata si intravede una mutazione ben più ampia da parte di molte big tech: l’integrazione dell’intimità artificiale nel mercato mainstream e la conseguente riorganizzazione dei confini fra etica, business e politica.
Cosa si potrà fare di erotico su Chatgpt
Altman non spiega cosa sarà possibile fare di erotico – con testo, voce, immagini – su Chatgpt. Ma qualche indicazione può arrivare da quello che già avviene su Grok di Elon Musk. Soft porn, flirt e gioco di ruolo erotico, qualche immagine di seminudo AI.
L’obiettivo sarebbe creare un ambiente di intimità narrativa, più vicino al romanzo erotico o al “role-play” psicologico che alla pornografia.
Si tratterebbe, in pratica, di una evoluzione del ChatGPT “emotivo”: capace di riconoscere segnali di interesse o desiderio e rispondere in modo coerente ma sempre controllato. L’esperienza sarebbe probabilmente testuale (e solo successivamente vocale), con limiti chiari come “no immagini sessuali”, “no contenuti espliciti”, “no minori o personaggi fittizi minorili”.
Elon Musk, tramite xAI / Grok, ha già introdotto un avatar anime chiamato Ani che supporta una modalità NSFW (not safe for work) in cui l’avatar appare in lingerie o con abbigliamento erotico all’interno dell’interfaccia virtuale, come modalità selezionabile via impostazioni, cioè non automatica.
Su Grok, gli utenti con “companions romantici” passano in media oltre 90 minuti al giorno con l’IA. Se ChatGPT introducesse una forma controllata di “intimità virtuale” anche solo per il 5% dei suoi 800 milioni di utenti settimanali, si tratterebbe di decine di milioni di ore aggiuntive di engagement quotidiano, che valgono oro per il training dei modelli, per l’espansione del brand e per la monetizzazione premium.
Com’è stato finora il filtro di censura su ChatGpt
Negli ultimi anni OpenAI ha imposto un regime abbastanza rigoroso di censura preventiva su ogni richiesta sessuale, in coerenza con le linee guida di sicurezza adottate dopo l’introduzione di GPT-4, con l’obiettivo di limitare il rischio di anthropomorphic attachment, cioè l’instaurarsi di legami emotivi asimmetrici con un agente linguistico.
La svolta del 2025 consiste sostanzialmente in un via libera all’istituzione di un sistema di age-gating e tracciamento identitario, in cui l’accesso sarà subordinato alla verifica dell’età e al consenso esplicito dell’utente.
Si tratta di un passaggio del tutto coerente con una strategia economica precisa che mira a trasformare ChatGPT da piattaforma generalista a infrastructure service capace di generare margini anche nei settori a domanda stabile e, in primis nell’intrattenimento erotico, che rappresenta storicamente una rilevantissima percentuale del traffico internet globale. L’eros, dunque, non come incidente, ma come comparto economico disciplinato.
Competizione industriale e imitazione strategica: perché OpenAI passa all’eros
Data la mossa di Grok (xAI), l’ingresso di OpenAI nell’erotica appare come risposta difensiva, cioè quella di impedire che le piattaforme più permissive monopolizzino un segmento ad altissima user-retention.
L’argomento economico è lineare, visto che i contenuti affettivo-sessuali aumentano il tempo di permanenza, e quindi il valore dei dati e la fidelizzazione; tuttavia, a differenza di xAI, OpenAI vuole costruire un modello di compliance erotica, cioè un’area ad accesso ristretto, con filtri di moderazione basati su reinforcement learning e valutazioni umane di secondo livello. In questo caso quindi la redditività passa per la capacità di dimostrare controllo, non solo dalla capacità innovativa.
Altman, intervistato da Cleo Abram due mesi prima, aveva escluso la creazione di “sex-bot avatars” in ChatGPT, sostenendo che non ogni mossa capace di aumentare ricavi fosse di per sè compatibile con i valori aziendali. Ora l’inversione di rotta sembra essere giustificata dalla disponibilità di “nuovi strumenti di sicurezza”, espressione che, secondo il materiale tecnico pubblicato da OpenAI, indica la combinazione di content classifiers, context windows e human feedback filters. L’azienda ritiene che quindi ora la gestione algoritmica del rischio possa sostituire la proibizione assoluta e, secondo OpenAI una percentuale rilevante delle interazioni spontanee con ChatGPT riguarda relazioni, amore o riflessioni personali: ciò dimostrerebbe che la domanda esiste già e l’offerta legittima serve a toglierla alle piattaforme non regolamentate.
Le implicazioni normative: tra libertarismo digitale e controllo morale
La decisione arriva mentre l’amministrazione Trump promuove un’AI policy apertamente anti-woke, orientata alla riduzione dei vincoli etici e alla tutela della “neutralità ideologica” dei modelli, il tutto messo in atto tramite gli ordini esecutivi firmati nell’estate 2025 che limitano i poteri delle agenzie federali in materia di AI safety e riducono l’obbligo di audit sui bias valoriali. In questa cornice, la scelta di OpenAI acquista anche un valore politico, perché cavalcando l’onda trumpiana, dimostra la sua autonomia rispetto al moralismo regolatorio e un adattamento (opportunistico) al nuovo clima di deregolamentazione.
Altman, che fino a qualche tempo fa sosteneva la necessità di una governance multilaterale dell’AI, oggi adotta una retorica più pragmatica e, oggi, il principio guida “trattare gli adulti da adulti” suona come la versione liberista di un principio di responsabilità personale, che ha lasciato ormai da parte la tutela collettiva.
Inoltre, la coerenza tra queste posizioni è comunque discutibile, in quanto, se l’età diventa in qualche modo l’unico discrimine morale, l’intero edificio di AI ethics finisce col ridursi a un problema meramente anagrafico, mentre il vero rischio è la sostituzione della discussione sulla dignità, sul consenso e sulla rappresentazione del corpo con una mera verifica documentale sull’età.
L’intersezione con il diritto penale e la protezione dei minori
Negli Stati Uniti, il “Take It Down Act” firmato da Trump a maggio 2025 ha reso penalmente perseguibile la diffusione non consensuale di immagini intime, comprese quelle generate da AI. Tuttavia, la legge lascia scoperto il fronte della produzione privata, quindi, generare immagini erotiche con avatar sintetici non è formalmente un reato se non rappresentano persone reali.
E in Europa?
In Europa, il quadro è più rigido, dal momento che Digital Services Act e regolamento AI Act impongono obblighi di trasparenza e di mitigazione dei rischi per i modelli che trattano dati sensibili, inclusi quelli sessuali. Un’estensione dei servizi erotici di OpenAI nell’UE richiederà, quindi, una certificazione di high-risk AI system e la prova di misure safety-by-design.
Sul piano pratico, la sfida è verificare l’età senza compromettere la privacy. OpenAI ha annunciato che svilupperà un sistema di age prediction basato sull’analisi del comportamento testuale, in modo da orientare automaticamente gli utenti potenzialmente minorenni verso un’esperienza ChatGPT con policy restrittive; laddove il sistema non sia sufficientemente sicuro, si applicherà per default l’esperienza “under-18”.
In alcuni casi all’utente potrebbe essere richiesto di fornire un documento d’identità come verifica aggiuntiva; alcune fonti suggeriscono che OpenAI stia anche esplorando strumenti di digital ID con anonimizzazione parziale. Tuttavia, non risultano (al momento) protocolli pubblici dettagliati che confermino l’adozione sistematica di tali strumenti.
Dal punto di vista tecnico, nessuna tecnologia biometrica è oggi in grado di garantire verifica d’età infallibile senza introdurre rischi di sorveglianza o vulnerabilità (ad esempio attraverso il reverse engineering di template biometrici).
In Europa, l’introduzione di contenuti erotici da parte di un modello d’intelligenza artificiale implicherebbe inoltre l’obbligo di conformità al Digital Services Act e all’AI Act, che richiedono sistemi di verifica dell’età “proporzionati e rispettosi della privacy”.
Le soluzioni allo studio per la verifica età (age verification) in Europa e Italia includono l’uso di identità digitali europee (EUDI Wallet) e di prove crittografiche anonime che permettono di dimostrare la maggiore età senza rivelare dati personali.
Dimensione psicosociale e antropologia dell’avatar
La progressiva accettazione degli AI companions erotici va letta anche come fenomeno sociologico, dato che il desiderio, un tempo confinato al corpo e alla rappresentazione artistica, migra verso l’interazione conversazionale, in cui la libido diventa linguaggio e il linguaggio diventa mercato.
Studi recenti indicano che un uso intenso di chatbot emotivi è associato a una maggiore dipendenza emotiva e a effetti sociali negativi nel tempo e che utenti di chatbot sociali possono instaurare dinamiche affettive e attribuire risposte emotive coerenti alle macchine, con effetti simili al legame emotivo umano.
Questi risultati supportano la tesi che l’interazione affettiva con l’IA può indurre fenomeni di illusione di reciprocità, benché non vi siano ancora prove definitive che tali dinamiche diventino automatiche o universali. Si tratta dell’effetto noto come reciprocity illusion, amplificato quando la conversazione assume tono erotico; per questo, l’erotizzazione della macchina non è un fenomeno marginale, bensì una ristrutturazione delle dinamiche di intimità in epoca post-corporea.
L’aspetto provocatorio è il fatto che OpenAI scelga di normalizzare questa trasformazione, rivendicando la capacità tecnica di gestirla e sostituendo, di fatto, la moralità con la procedura.
Il problema degli avatar sessuali e della rappresentazione
Gli AI avatars a fini erotici non si limitano a descrizioni testuali in quanto includono sintesi vocale, espressioni facciali, posture simulate; così il confine tra “personaggio fittizio” e “identità digitale” è ormai molto labile e il rischio principale è quello di appropriazione indebita di somiglianze reali (deepfake non-consensuali).
Inoltre, un paper del novembre 2024 ha dimostrato che modelli multimodali come GPT-4o tendono a censurare la nudità femminile in modo più severo rispetto a quella maschile, evidenziando un bias di genere nella moderazione automatica: se l’AI erotica ereditasse questi filtri, rischierebbe di riprodurre gli stessi squilibri di rappresentazione che dice di superare.
La regolazione del desiderio diventa così una questione di dataset e weighting functions e la politica dell’erotico è scritta nel codice sorgente.
L’impatto sociale dei chatbot erotici
Il dibattito sull’erotica artificiale divide gli studiosi: una corrente, di matrice più libertaria, interpreta l’interazione sessuale con AI come estensione della libertà individuale e possibile strumento terapeutico per soggetti isolati o con disabilità; un’altra, più critica, la legge come ulteriore mercificazione dell’intimità e riduzione dell’altro a interface.
L’emergere di AI companions con funzioni seduttive o erotiche apre una zona d’ombra ancora poco esplorata sul piano psicologico e sociale. Si tratta infatti di sistemi, progettati per offrire dialoghi empatici e gratificanti, che tendono a replicare dinamiche di reciprocità emotiva e che possono diventare fuorvianti per utenti vulnerabili. Negli ultimi anni si sono moltiplicati i casi di persone che hanno sviluppato dipendenza affettiva da chatbot come Replika, Character.AI o Nomi, descrivendo una progressiva sostituzione delle relazioni reali con quelle simulate.
Studi condotti su comunità online e dataset pubblici segnalano che l’uso prolungato di chatbot affettivi amplifica il senso di solitudine e, nei soggetti fragili, può aggravare sintomi depressivi o ideazioni suicide.
I casi di suicidi e morti
Solo per fare alcuni tristi esempi: nel 2023 un uomo in Belgio si è tolto la vita dopo settimane di conversazioni con un chatbot ispirato a Replika; negli Stati Uniti, nel 2024, il noto caso del sedicenne Adam Raine (morto suicida dopo aver interagito con ChatGPT, secondo l’accusa dei genitori) ha sollevato un’indagine federale e una causa civile contro OpenAI per “negligenza nella protezione dei minori”.
Sempre negli Stati Uniti, risulta collegata all’interazione con un chatbot seduttivo Meta (Big Sis Billie), la morte di anziano mentre si recava all’indirizzo indicato dallo stesso chatbot per il loro “incontro”. Diversi report di centri clinici statunitensi e britannici segnalano che adolescenti con disturbi depressivi o isolamento sociale tendono a usare i chatbot come sostituti affettivi, esponendosi a rinforzi emotivi privi di reale contenimento.
In questo contesto, l’introduzione di funzioni erotiche o seduttive da parte di grandi modelli conversazionali rappresenta un ulteriore fattore di rischio, poiché il rinforzo positivo di un’interazione sessualizzata, sempre accondiscendente e disponibile, può consolidare dipendenze emotive o comportamenti autolesivi. È un’intimità algoritmica che imita la reciprocità, ma ne annulla la sostanza e, nei soggetti giovani o fragili, può diventare una forma di persuasione invisibile, tanto più pericolosa quanto più appare “empatica”.
Adult verification: la sicurezza ridotta a formalità
Sembra evidente che, nella visione di OpenAI, i rischi psicosociali associati all’uso di chatbot affettivi o seduttivi vengano considerati gestibili o almeno non più centrali rispetto a un anno fa. La scelta di introdurre contenuti erotici subordinandoli semplicemente alla verifica dell’età implica infatti che la maggiore età coincida con una piena capacità di discernimento e di autolimitazione, indipendentemente da vulnerabilità psicologiche o contesti di fragilità.
È una semplificazione funzionale al mercato, non necessariamente coerente con l’evidenza empirica. Le dinamiche di dipendenza affettiva, le illusioni di reciprocità o i rischi di isolamento non scompaiono a diciotto anni compiuti e ridurre la questione della sicurezza a un requisito anagrafico significa confondere maturità legale con maturità emotiva.
Ad oggi, infatti, non esiste alcuna evidenza pubblica che OpenAI abbia effettivamente risolto i rischi psicosociali che, fino a pochi mesi fa, dichiarava di considerare prioritari per la tutela dei soggetti fragili. Le comunicazioni ufficiali sull’introduzione dei contenuti erotici non fanno riferimento a studi clinici, metriche di benessere né a collaborazioni con enti di salute mentale, ma solo a un generico “rafforzamento della sicurezza” e a un sistema di verifica dell’età. Pertanto, in assenza di dati ufficiali e verificati, l’affermazione secondo cui tali rischi sarebbero “mitigati” resta una dichiarazione aziendale, non un risultato documentato.
Altman ieri e oggi: continuità o opportunismo?
L’evoluzione pubblica di Altman è documentata. Fino al 2023 si presentava come promotore di un’AI “benefica”, soggetta a controllo pubblico; dopo la crisi di Governance in OpenAI e la temporanea estromissione del board, il discorso è diventato più pragmatico, evidenziando la centralità del mercato, la maggiore tolleranza per i trade-offs morali, l’enfasi sulla “responsabilità individuale”.
Il passaggio all’erotica non è quindi un’incoerenza isolata, bensì parte di una più ampia liberalizzazione del rischio. Altman infatti non sostiene più, come in passato, che l’AI debba essere “sicura per l’umanità”, ma che debba essere “gestibile dagli adulti”. Una mutazione semantica da cui emerge in tutta chiarezza che l’etica è ormai delegata al consumatore.
L’economia dell’intimità algoritmica
La decisione di OpenAI lungi dall’essere una deviazione curiosa o un esperimento marginale, rappresenta un’operazione industriale e politica che ridefinisce la relazione tra autonomia personale e progettazione tecnica.
Se il mercato dell’AI erotica si consoliderà, la conversazione pubblica dovrà confrontarsi con questioni oggi eluse:
- chi stabilisce i limiti del desiderio digitale;
- come si tutelano i soggetti rappresentati senza consenso;
- quale statuto giuridico attribuire all’AI come partner relazionale.
L’erotismo algoritmico nasce per monetizzare l’affettività mediata e, in questo senso, la promessa di “trattare gli adulti da adulti” suona come dichiarazione di fiducia nel potere autoregolatore del mercato che come atto emancipatorio che come. È però una fiducia che merita di essere messa alla prova e non accettata per automatismo.










Col cazzp che lo farà. Non vi fidate