App che vivono dentro ChatGPT, un pacchetto maturo per costruire e mettere in produzione agenti, e una famiglia di modelli aggiornata che spazia dal reasoning a voce alle immagini e al video con Sora 2.
E’ la direzione che sta prendendo l’ecosistema OpenAI, come visto al Dev Day 2025 di questi giorni. Parliamo di un mondo con 4 milioni di sviluppatori e più di 800 milioni di utenti settimanali su ChatGPT, insieme a nuove alleanze infrastrutturali per reggere la domanda.
Indice degli argomenti
App che vivono dentro ChatGPT
Adesso è possibile avere app direttamente dentro l’interfaccia di ChatGPT. L’idea è semplice ma dirompente. Le app si presentano quando servono durante una conversazione oppure vengono invocate per nome, rispondono in linguaggio naturale e possono esporre componenti interattivi senza uscire dalla chat.
Nelle demo iniziali sono comparse integrazioni come Booking.com, Canva, Coursera, Expedia, Figma, Spotify e Zillow, disponibili nei mercati in cui operano, inizialmente in inglese. Un utente può chiedere a Zillow di mostrare case in vendita con un budget e un quartiere precisi e ottenere una mappa navigabile, oppure partire da un outline e farsi generare da Canva una presentazione pronta da rifinire a colpi di prompt.
Sotto il cofano c’è l’Apps SDK in anteprima, costruito sopra il Model Context Protocol, uno standard aperto usato per collegare fonti di dati e strumenti esterni. Lo SDK consente di definire l’interfaccia e la logica conversazionale dell’app, collegarsi ai backend esistenti e gestire autenticazione e permessi. Le app sono disponibili da oggi per tutti gli utenti ChatGPT autenticati fuori dall’Unione Europea sui piani Free, Go, Plus e Pro; l’estensione all’UE è attesa a breve.
Agentic Commerce Protocol
OpenAI ha già annunciato una directory per scoprire e installare app, insieme a meccanismi di monetizzazione. In roadmap spicca un tassello strategico: l’Agentic Commerce Protocol, uno standard per il checkout istantaneo direttamente in ChatGPT, che fa immaginare scenari di transazione end‑to‑end orchestrati da agenti.
Questa mossa ha due effetti immediati. Dal lato sviluppatori apre un canale di distribuzione diverso da store e motori di ricerca, più vicino ai momenti di frizione in cui un utente chiede aiuto. Dal lato utenti rende la chat un hub in cui informarsi, decidere e agire senza contesto frammentato. È l’idea di “sistema operativo conversazionale” che molti nel settore inseguono, qui resa concreta dalla combinazione tra UI ricche e capacità di reasoning del modello.
Agenti pronti per la produzione: AgentKit
La seconda direttrice è l’evoluzione dell’approccio agentico.
A luglio OpenAI aveva abilitato in ChatGPT una modalità agente che unisce navigazione web visuale, browser testuale, terminale e connettori verso app esterne, con la possibilità di operare su un “computer virtuale” e chiedere conferma prima di azioni sensibili. Con DevDay arriva il pacchetto per chi quegli agenti vuole progettarli e farli scalare in contesti reali.
Il cuore è AgentKit, un insieme di strumenti che copre progettazione, deploy e miglioramento continuo. Tre componenti meritano attenzione. Agent Builder, una canvas visuale per comporre workflow multi‑agente, collegare tool, configurare guardrail e versionare le iterazioni. ChatKit, il toolkit per incorporare esperienze di chat agentiche in prodotti e siti con un look‑and‑feel nativo e personalizzabile. Connector Registry, un pannello amministrativo per governare connettori e fonti dati attraverso prodotti e organizzazioni, utile a chi ha più workspace e policy complesse. A supporto arrivano nuove capacità di valutazione, con dataset gestiti, trace grading per misurare end‑to‑end le catene di passaggi, ottimizzazione automatica dei prompt e il supporto alla valutazione di modelli terzi.
Per la personalizzazione profonda, AgentKit apre anche al reinforcement fine‑tuning. È disponibile in generale su o4‑mini e in beta privata su GPT‑5, con due estensioni orientate agli agenti: la possibilità di addestrare il modello a chiamare gli strumenti giusti al momento giusto e la definizione di “custom graders” agganciati alle metriche che contano davvero in produzione. Sul fronte sicurezza, i guardrail open source si possono attivare come librerie in Python e JavaScript, per controllare PII, rilevare jailbreak e applicare policy su misura.
Il messaggio implicito è che l’ingegneria degli agenti sta uscendo dalla fase artigianale. Con AgentKit, le aziende passano da orchestrazioni sparse e fragili a un ciclo di vita gestito, osservabile e versionabile. I primi casi d’uso citati spaziano dall’assistenza clienti a vendite e ricerca, con testimonianze che evidenziano riduzione dei tempi di iterazione e passaggio da proof‑of‑concept a sistemi operativi in poche settimane.
Nuovi modelli OpenAI e capacità
La terza direttrice riguarda i modelli. Da agosto GPT‑5 è diventato il motore di riferimento nelle esperienze ChatGPT e nell’API. Non è un semplice “modello in più” ma un sistema che unisce due anime. Un ramo veloce, ottimizzato per rispondere alla maggior parte delle richieste, e un ramo di ragionamento profondo che entra in gioco sui compiti duri. Un router decide al volo quale via percorrere in base al tipo di conversazione, alla complessità, all’uso di strumenti e all’intento esplicito dell’utente. Per gli scenari che richiedono affidabilità estrema esiste la variante GPT‑5 Pro nell’API, con compute esteso e maggiore coerenza nelle risposte.
Sul fronte sicurezza, GPT‑5 introduce le “safe‑completions”, un approccio di addestramento che sostituisce l’idea rigida della “hard refusal” con risposte utili entro confini chiari. Di fatto, l’obiettivo è ridurre i casi in cui il modello si blocca o risponde in modo evasivo pur rimanendo in una zona sicura, e lo fa con policy più granulari e controlli in linea.
Modelli più piccoli ed economici
Accanto a GPT‑5 arrivano modelli compatti mirati al tempo reale e ai costi. Gpt‑realtime‑mini riduce in modo sostanziale il prezzo del voice‑streaming rispetto al modello grande, mantenendo latenza bassa e buona intelligibilità, mentre gpt‑image‑1‑mini porta l’immagine generativa a costi ridotti, utile per interfacce che richiedono tante iterazioni visive. Per lo sviluppo software, Codex esce dalla fase di anteprima e diventa generalmente disponibile, con una integrazione per Slack, un SDK per portare l’agente di codifica dentro flussi e prodotti personalizzati e strumenti amministrativi per le aziende.
Sora 2
Sul versante media generativi, Sora 2 segna un salto di qualità nella sintesi video. È più fedele alla fisica e più controllabile, con audio e dialoghi sincronizzati e una gamma stilistica più ampia. Oltre all’SDK per l’API, OpenAI ha rilasciato una app dedicata orientata a flussi creativi collaborativi, dal testo o da un’immagine fino al montato con sonoro. L’integrazione con il resto della piattaforma fa immaginare agenti che generano, rivedono e montano contenuti in pipeline semi‑autonome.
Il quadro si completa con gli open‑weight. A inizio agosto OpenAI ha pubblicato due modelli gpt‑oss, da 120 e 20 miliardi di parametri, rilasciati con licenza Apache e destinati a girare on‑premise o su cloud di terzi. Non fanno parte dell’API proprietaria ma si inseriscono nel disegno più ampio, perché diventano tasselli da combinare con strumenti e agenti quando la sovranità dei dati o vincoli infrastrutturali lo richiedono.
OpenAI dopo il DevDay 2025, cosa cambia per chi sviluppa
Per i team tecnici la novità chiave è la convergenza tra tre layer che in passato vivevano separati.
- Al top c’è l’interfaccia conversazionale, che ora ospita app interattive scopribili e invocabili per nome, con una policy di privacy esplicitata e un meccanismo di permessi dichiarativi.
- Al centro c’è l’orchestrazione agentica, che esce dal DIY e offre canvas visuali, connettori governabili e valutazioni strutturate, fino alla possibilità di rinforzare il comportamento del modello con RFT.
- In basso c’è il layer dei modelli, che comprende un motore generale come GPT‑5, varianti pro e mini per esigenze diverse, il real‑time a voce, l’immagine a costi ridotti e il video di nuova generazione.
In pratica questo significa distribuire esperienze end‑to‑end più rapidamente. Un e‑commerce può pubblicare un’app in ChatGPT per scoprire prodotti e pagare in un flusso unico, collegandosi al proprio catalogo via MCP e lasciando che ChatGPT suggerisca l’app quando capisce l’intento d’acquisto. Un’azienda B2B può addestrare un agente di supporto con AgentKit, misurarne l’accuratezza su dataset interni, rafforzare l’uso corretto degli strumenti con RFT e distribuire su web e mobile grazie a ChatKit. Un laboratorio può usare Sora 2 per creare prototipi video guidati da prompt controllabili e integrare i risultati in un’app di revisione creativa.
Effetti sull’ecosistema e sulle imprese
I nuovi trend emersi al DevDay 2025 hanno anche un risvolto infrastrutturale e di ecosistema. OpenAI ha annunciato una partnership strategica con AMD per dispiegare capacità compute su larga scala, un tassello chiave per sostenere il ritmo di adozione. Sul piano regolatorio e dei mercati, il rollout iniziale delle app esclude l’UE mentre prosegue il lavoro su policy e granularità dei permessi. Sul piano dei pagamenti, in India è partito un progetto pilota con NPCI e Razorpay che abilita acquisti tramite ChatGPT su rete UPI, con banche e merchant partner. È un segnale di dove può arrivare l’Agentic Commerce quando infrastrutture locali e modelli maturano insieme.
Per le imprese la traiettoria è chiara. La produttività non passa più soltanto dall’inserire un modello dentro un’app esistente, ma dal ridisegnare interfacce, processi e metriche attorno ad agenti e app conversazionali. Governance, osservabilità e sicurezza diventano abilità di base quanto MLOps, con l’aggiunta di design conversazionale, policy dei permessi e valutazioni interattive. Gli early adopter che hanno esplorato custom GPT e plugin ora trovano un corridoio più strutturato per fare salto di scala.
GPT 5, Sora e Agenti, la spinta sulla sicurezza
L’enfasi al DevDay 2025 sulle safe‑completions in GPT‑5 e sulle mitigazioni per la modalità agente riflette uno spostamento dalla difesa statica alla prevenzione in tempo reale. Nei flussi agentici il rischio non è solo nel testo, ma nelle azioni eseguite sul web o su sistemi interni. OpenAI descrive controlli espliciti prima di azioni rilevanti, resistenza a prompt injection e monitoraggio dei tool output, oltre alla possibilità per l’utente di intervenire e interrompere.
In ambito video, la system card di Sora 2 dettaglia test, red teaming e limiti d’uso su domini sensibili. Anche per i modelli open‑weight emerge una linea prudenziale, con valutazioni di preparedness e policy dedicate.
Per la comunità scientifica questo significa disporre di casi studio e dataset per valutare agenti in contesti interattivi, oltre ai benchmark classici. Per le aziende comporta incorporare la sicurezza fin dall’ideazione, con guardrail modulari e metriche di outcome misurabili nel tracing della catena di ragionamento e azioni.
Il futuro dei prodotti OpenAI
DevDay 2025 consegna un’immagine precisa della direzione di marcia. ChatGPT diventa un ambiente applicativo, gli agenti passano da esperimenti a componenti di prodotto, i modelli si stratificano per coprire scenari che vanno dal reasoning profondo al tempo reale, dall’immagine al video.
La sfida ora è tutta esecutiva. Per sviluppatori, ricercatori e imprese non basta “provare il modello”: serve progettare esperienze end‑to‑end, adottare pratiche di valutazione e sicurezza, e scegliere con criterio dove posizionare l’intelligenza tra cloud, API e on‑premise.












