Con le Usage Policies entrate in vigore il 29 ottobre 2025, OpenAI ridefinisce i limiti dell’intelligenza artificiale e le regole del suo stesso potere.
Si vietano armi, manipolazioni politiche, sorveglianza biometrica e usi critici dell’AI (soldi, lavoro, salute, giustizia…) privi di controllo umano qualificato.
Un grosso salto etico per Chatgpt?
Dietro l’apparente etica della cautela si cela una strategia giuridica precisa: una autoregolazione che tutela più l’impresa che l’utente, e che anticipa il diritto solo per sottrarsi alla sua forza. L’AI Act europeo, nel frattempo, osserva da lontano.
Indice degli argomenti
I divieti principali OpenAI ChatGpt dal 29 ottobre 2025
Vietati:
- sviluppo, progettazione o gestione di armi;
- sorveglianza biometrica o riconoscimento facciale senza consenso;
- manipolazione dell’opinione pubblica, campagne politiche, lobbying, interferenze elettorali;
- diffamazione, molestie, minacce, deepfake a sfondo sessuale o violento;
- contenuti legati a suicidio, autolesionismo, disturbi alimentari, terrorismo o odio;
- truffe, frodi, cheating accademico, distruzione o compromissione di sistemi informatici;
- gioco d’azzardo con denaro reale;
- produzione o diffusione di materiale pedopornografico, adescamento o contenuti non adatti ai minori.
- Profilazione e valutazione automatica. Stop alla classificazione di individui per comportamento, emozioni o dati biometrici (come il punteggio sociale). Proibite previsioni di rischio penale o inferenze emotive in scuole e luoghi di lavoro.
- Consulenze professionali. Vietate quelle che richiedono licenza (legali, mediche, finanziarie) se non è coinvolto un professionista abilitato.
- Automazione delle decisioni ad alto impatto. Niente uso per processi che incidono sui diritti delle persone: credito, giustizia, sanità, servizi pubblici. Serve sempre il giudizio umano, in linea con l’AI Act europeo.
Tutela dei minori
Vietato generare o diffondere immagini sessuali, violente o di autolesionismo; proibite “sfide pericolose”, giochi di ruolo sessuali o violenti, contenuti che stigmatizzano l’aspetto fisico.
“Conversazioni sensibili”
Novità introdotta con GPT-5: il modello ora riconosce segnali di vulnerabilità (depressione, psicosi, autolesionismo) e risponde con maggiore cautela.
OpenAI-Chatgpt: la regolazione privata dell’AI come nuova frontiera del diritto pubblico
Con l’entrata in vigore delle nuove Usage Policies di OpenAI, il 29 ottobre 2025, la governance dell’intelligenza artificiale compie un passo che potremmo definire istituzionale: l’impresa privata assume in prima persona il ruolo di legislatore del proprio ecosistema. È un fatto epocale.
Non si tratta più soltanto di condizioni contrattuali o linee etiche di condotta, ma di un vero e proprio corpus di norme, globali per natura e immediatamente vincolanti per centinaia di milioni di utenti.
Le policy si applicano a ChatGPT, alle API e agli altri prodotti basati su modelli di linguaggio, fissando limiti e divieti con la perentorietà di una legge: armi, sorveglianza biometrica, riconoscimento facciale senza consenso, manipolazione politica, automazione delle decisioni ad alto impatto.
Tutto appare razionale, quasi rassicurante. Ma dietro il linguaggio misurato e l’enfasi sulla “responsabilità” si intravede un nodo giuridico più profondo.
OpenAI – e con essa, in prospettiva, l’intero settore dell’intelligenza artificiale generativa – costruisce un modello di autoregolazione preventiva che, pur adottando il lessico dei principi pubblici (tutela, sicurezza, dignità, non discriminazione), si fonda in realtà su un presupposto privatistico: la protezione del fornitore.
È una regolazione che anticipa la legge non per adeguarvisi, ma per circoscriverne gli effetti. Il diritto pubblico osserva, ma resta ai margini. E ciò solleva una domanda tanto classica quanto urgente: può un soggetto privato, per quanto tecnologicamente potente, diventare il principale regolatore di un fenomeno che incide sui diritti fondamentali delle persone?
La risposta non è semplice, ma è innegabile che le Usage Policies di OpenAI costituiscono un precedente di portata sistemica. Esse mostrano come la sovranità tecnologica stia lentamente sostituendo quella giuridica, e come il potere di scrivere il codice coincida, sempre più spesso, con quello di scrivere le regole del mondo.
L’ambiguità dei confini: il caso “legal” e “health” e la responsabilità rovesciata
La sezione più controversa delle nuove policy è quella che riguarda gli ambiti professionali regolamentati: diritto, medicina, finanza. Qui l’impresa stabilisce che i propri modelli “non devono essere utilizzati per fornire consulenze personalizzate che richiedano una licenza professionale”, aggiungendo che “l’utente è responsabile del proprio uso e deve coinvolgere un professionista qualificato”.
È una formula di apparente prudenza, che però nasconde una scelta giuridica di grande rilievo: OpenAI non vieta di trattare temi legali o medici, ma si limita a spostare sull’utente l’onere della correttezza dell’uso.
In altri termini, non si sottrae tecnicamente alla domanda, ma giuridicamente alla colpa.
È un modo elegante per lavarsi le mani dei rischi derivanti da un uso improprio, mantenendo al tempo stesso l’attrattiva di un modello che resta in grado di rispondere su tutto, o quasi.
Da un punto di vista di diritto pubblico, si tratta di un perfetto esempio di deresponsabilizzazione regolata. L’impresa esercita un potere normativo, fissando regole vincolanti per milioni di utenti, ma al contempo si dichiara irresponsabile delle conseguenze di quel potere. Il paradosso è evidente: OpenAI decide dove passa la soglia del rischio, ma pretende che la responsabilità di eventuali danni ricada esclusivamente sull’utilizzatore.
Non è un caso isolato. È la logica che permea l’intera cultura tecnologica contemporanea: la regolazione come forma di autodifesa.
Eppure, proprio in questi settori — salute e diritto — l’impatto di una risposta errata o impropria può avere effetti reali, persino irreparabili. Qui la clausola di “non responsabilità” non è un dettaglio contrattuale: è un nodo politico e giuridico che mette in discussione il principio stesso di accountability.
L’AI Act, nel suo impianto, mira a superare questo paradosso. Esso impone al fornitore di garantire la sicurezza, la tracciabilità e la trasparenza del sistema lungo tutto il ciclo di vita del prodotto. Ma OpenAI, pur richiamandosi ai principi europei, applica una logica diversa: quella della compliance autogestita.
Il risultato è un cortocircuito: l’azienda parla il linguaggio del diritto, ma agisce secondo la logica del contratto. L’effetto è che la responsabilità si dissolve in una nebbia di clausole preventive. E così, nel momento in cui OpenAI sembra più vicina al diritto, se ne allontana.
I divieti OpenAI e la loro funzione: tra tutela e reputazione
L’elenco dei divieti contenuto nelle nuove Usage Policies è lungo, dettagliato e apparentemente conforme ai valori europei. Vengono vietati l’uso dei modelli per lo sviluppo o la gestione di armi, per attività terroristiche, per la manipolazione dell’opinione pubblica, per la sorveglianza biometrica o per la profilazione sociale.
È vietata la creazione di immagini intime non consensuali, l’adescamento di minori, la violenza, la disinformazione, il gioco d’azzardo con denaro reale.
Questa mappa dei divieti sembra ricalcare, quasi alla lettera, l’articolo 5 dell’AI Act europeo sui prohibited AI systems. Ma la somiglianza è ingannevole.
L’AI Act prevede un sistema di responsabilità, vigilanza e sanzioni pubbliche. Le policy di OpenAI, invece, si basano su un’autocertificazione autoreferenziale. L’impresa definisce i limiti, li applica, li verifica e, in caso di violazione, interviene unicamente sul piano contrattuale: sospensione dell’account, chiusura del servizio, nessun obbligo di risarcimento.
Non è dunque una regolazione nel senso giuridico del termine, ma una gestione reputazionale del rischio.
L’obiettivo non è tanto la tutela dell’interesse generale, quanto la costruzione di un’immagine di affidabilità. Eppure, in un contesto privo di un’autorità pubblica effettivamente in grado di verificare l’attuazione delle regole, questa autoregolazione si sostituisce di fatto al diritto.
È un fenomeno che il giurista non può ignorare. Quando la regolazione privata assume un effetto normativo globale, si produce una mutazione costituzionale silenziosa: la legittimità democratica viene rimpiazzata dall’efficienza tecnica. Il pericolo non è tanto l’anomia, quanto la nascita di un diritto senza Stato, dove la forza del codice prevale sulla forza della legge.
Le “conversazioni sensibili” e il paternalismo dell’algoritmo
Un aspetto di particolare rilievo delle nuove policy è l’introduzione di una categoria inedita: le sensitive conversations. Si tratta delle interazioni in cui emergono fragilità psicologiche, disagio, solitudine, pensieri suicidari o situazioni di vulnerabilità.
OpenAI ha spiegato di aver collaborato con 170 esperti tra psicologi, medici e assistenti sociali per addestrare il modello a riconoscere questi casi e a rispondere con maggiore cautela. Secondo i dati diffusi, le risposte “inadeguate” sarebbero diminuite dell’80%.
Sulla carta, è un progresso importante: un chatbot che riconosce la sofferenza e non la ignora. Tuttavia, da un punto di vista giuridico e filosofico, si apre un terreno scivoloso.
Chi stabilisce che cosa è “vulnerabilità”? Con quali criteri un algoritmo decide che l’utente debba essere “protetto” da se stesso, o che certi discorsi non debbano essere incoraggiati?
Siamo di fronte a un potere nuovo, che non è più soltanto cognitivo, ma morale: il potere di filtrare, interpretare e modulare la sofferenza.
Il diritto pubblico ha sempre guardato con sospetto i poteri che si esercitano in nome della protezione, perché ogni protezione contiene un margine di controllo.
Nel momento in cui un sistema privato decide di “tutelare” l’utente vulnerabile, esercita in realtà una funzione di tipo amministrativo — senza base legale, senza procedura, senza contraddittorio. È una sorta di amministrazione privata del disagio umano, che opera per algoritmi e metriche, non per norme.
Si tratta di un paternalismo tecnologico che, pur animato da buone intenzioni, rischia di ridefinire la libertà stessa dell’individuo: non più la libertà di scegliere, ma quella di essere “gestito” per il proprio bene.
In questa logica, la vulnerabilità diventa un parametro di governo. Ed è difficile non cogliere, dietro questa apparente cura, un potere di selezione che nessuna autorità pubblica ha mai conferito.
La responsabilità smarrita: il potere senza giurisdizione
Se si guarda nel complesso, l’architettura regolatoria di OpenAI produce un effetto giuridico preciso: sposta la responsabilità dal produttore all’utente, dal sistema al soggetto, dalla piattaforma alla periferia.
Le policy contengono numerosi divieti, ma nessuna assunzione di dovere attivo.
In caso di danni, l’azienda invoca le proprie Terms of Use, che escludono ogni garanzia di accuratezza e limitano la responsabilità ai casi di dolo o colpa grave. È una costruzione tipicamente americana, che trova però terreno fertile in un contesto giuridico europeo ancora privo di strumenti efficaci per la responsabilità algoritmica.
Il risultato è un vuoto di giurisdizione. L’utente non ha strumenti per contestare una decisione algoritmica né per provare un nesso causale tra un output errato e un danno subito.
Il modello sbaglia, ma nessuno è tenuto a risponderne. È la forma moderna dell’immunità: un potere globale che non trova un foro competente.
Da qui deriva l’urgenza di un diritto pubblico dell’intelligenza artificiale che vada oltre la trasparenza o l’etica e affronti direttamente la questione della responsabilità.
Finché il diritto si limiterà a raccomandare “human oversight” e “fairness”, resterà un passo indietro rispetto alla tecnologia.
Occorre recuperare la centralità del principio per cui ubi potestas, ibi onus: dove vi è potere, deve esservi anche obbligo. E un sistema capace di condizionare comportamenti, opinioni e decisioni umane esercita, senza dubbio, un potere.
AI: diritto, tecnologia e la fatica della responsabilità
Le nuove Usage Policies di OpenAI rappresentano un passaggio cruciale nella costruzione di un’etica globale dell’intelligenza artificiale, ma anche l’emblema di una tendenza più ampia: la sostituzione del diritto con la policy, della norma con il contratto, della responsabilità con il disclaimer.
Dietro la retorica della sicurezza e della tutela, si intravede una regola non scritta: l’impresa detta i limiti ma resta fuori dal sistema delle conseguenze.
È un fenomeno che interroga il giurista non solo come interprete, ma come cittadino. Perché ciò che accade in queste piattaforme non è più un fatto tecnico, ma un mutamento costituzionale.
La regolazione privata dell’AI non è semplicemente una forma di soft law; è un esercizio di potere globale che incide sulla libertà, sulla dignità e sulla sicurezza delle persone. E quando il potere non è accompagnato da un regime di responsabilità, il diritto pubblico perde la sua ragione d’essere.
L’AI Act, con i suoi principi di trasparenza, accountability e supervisione umana, rappresenta un primo tentativo di riaffermare questa connessione. Ma la vera sfida sarà integrare la self-regulation delle imprese in una cornice di responsabilità pubblica effettiva.
Non basta che le piattaforme si dichiarino etiche: devono diventarlo in un senso giuridico, cioè verificabile, contestabile, giustiziabile.
In ultima analisi, ciò che le nuove policy di OpenAI ci mostrano non è solo l’evoluzione di un prodotto, ma l’evoluzione del potere.
È la nascita di un diritto algoritmico che si scrive da sé, che pretende di regolare senza essere regolato.
Il compito del giurista, oggi più che mai, è ricordare che la tecnologia non è innocente — e che la vera misura della civiltà giuridica non è quanto sappia innovare, ma quanto sappia ancora rispondere.









