Con l’annuncio del 18 novembre 2025, Google ha presentato Gemini 3 come nuova piattaforma di riferimento per modelli linguistici e agentici. Non si tratta di un semplice aggiornamento incrementale rispetto a Gemini 2.5, ma di un’architettura che salda ragionamento profondo, multimodalità nativa e capacità operative tipiche degli agenti software.
Il debutto è avvenuto in parallelo su più fronti: un’anteprima del modello gemini-3-pro-preview per sviluppatori, l’integrazione nei prodotti enterprise e un rollout nell’app Gemini per gli utenti dei piani a pagamento, con un posizionamento che tocca anche la Ricerca Google.
Indice degli argomenti
Gemini 3, il nuovo modello di Google che punta all’era degli “agenti”: cosa cambia per imprese e sviluppatori
Dopo un avvio stentato con Bard e le prime versioni di Gemini, Google prova il sorpasso su OpenAI con Gemini 3, il suo nuovo modello “frontiera”. Non è solo un altro LLM: è un modello nativamente multimodale, più forte nel ragionamento, con interfacce generative e capacità agentiche pensate esplicitamente per entrare nei flussi di lavoro di Search, Workspace, Cloud ed enterprise.
La sensazione, anche ascoltando Demis Hassabis (CEO di Google DeepMind) nell’intervista al podcast Hard Fork di ieri, è che per Google questo sia il rilancio definitivo: il momento in cui il gruppo smette di “inseguire” e prova a rimettersi in testa alla corsa globale dell’AI.
Dal “Civic truccato” a un dragster: come Google racconta Gemini 3
Due anni fa Sundar Pichai definì Bard “una Civic truccata”, in corsa con auto ben più potenti. Oggi, alla domanda su che “auto” sia Gemini 3, Demis Hassabis risponde:
«Spero che sia un po’ più veloce di una Honda Civic. Forse è più vicino a uno di quei dragster super potenti.»
La metafora – scherzosa ma non troppo – sintetizza l’ambizione del progetto Gemini: un’unica famiglia di modelli che fa da “sala macchine” di tutto l’ecosistema Google, dai prodotti consumer come Search, Maps, YouTube e Android fino a Workspace, Cloud e alle nuove applicazioni AI-first come l’app Gemini e NotebookLM.
Cosa fa davvero di diverso Gemini 3: i tre assi principali
Nei briefing con la stampa Google insiste su tre assi principali: ragionamento, multimodalità e coding.
Nell’intervista ad Hard Fork, Hassabis e Josh Woodward (VP del team Gemini) scendono nel concreto. Woodward sintetizza così il salto:
«Stiamo iniziando a vedere che questo modello eccelle davvero nel ragionamento e nel saper pensare molti passi alla volta. In passato i modelli perdevano il filo; questo è molto migliore da quel punto di vista.»
E, sul comportamento del modello nell’uso quotidiano, aggiunge che Gemini 3 è “più conciso, più espressivo” e che “presenta l’informazione in modo molto più facile da capire” rispetto alle generazioni precedenti.
Hassabis insiste sul lavoro fatto sullo “stile” del modello:
«Abbiamo lavorato molto sulla persona, come la chiamiamo internamente. È più concisa, più diretta al punto, più utile. La trovo più piacevole con cui fare brainstorming e da usare.»
Questa attenzione alla “persona” non è un dettaglio estetico: per Google è un asset competitivo, soprattutto in un contesto B2B, dove la qualità dell’interazione – chiarezza, affidabilità, capacità di sintesi – incide direttamente sulla produttività degli utenti.
Quanto costa Gemini 3 e quali piani servono
Dal punto di vista di chi vuole provare Gemini 3 oggi in Italia, la domanda chiave è quanto costa e quali piani servono davvero.
Il punto di ingresso è Google AI Plus, il nuovo piano “low cost” pensato per chi vuole qualcosa in più rispetto alla versione gratuita senza arrivare al profilo professionale. In Italia Google AI Plus costa 7,99 euro al mese, con una promozione di lancio a 3,99 euro al mese per i primi due mesi. Nel pacchetto rientrano l’accesso esteso all’app Gemini con il modello Gemini 2.5 Pro, le funzioni avanzate di scrittura e immagini e 200 GB di spazio complessivo su Google Foto, Drive e Gmail.
Per chi usa davvero Gemini 3 tutti i giorni – lavoro, studio, contenuti – il riferimento principale diventa Google AI Pro. In Italia il piano Pro costa 21,99 euro al mese, con il primo mese di prova gratuito; per chi sa già che lo userà a lungo esiste anche l’opzione annuale da 219,99 euro, che fa risparmiare circa il 16 per cento rispetto ai dodici mesi pagati singolarmente. Google AI Pro porta l’accesso pieno a Gemini 3 Pro nell’app, alle nuove funzioni di Deep Research, alla generazione di immagini con Nano Banana Pro e ai video con Veo 3.1 Fast, oltre a 2 TB di spazio cloud e a Gemini integrato in Gmail, Documenti, Fogli, Presentazioni e Meet.
Sopra Pro c’è Google AI Ultra, il piano pensato per chi sfrutta l’AI in modo realmente intensivo, tra produzione video, flussi multimodali e uso avanzato in azienda. In Italia il listino ufficiale è di 274,99 euro al mese, ma al lancio Google ha previsto una promozione che porta il costo a 139,99 euro al mese per i primi tre mesi. Ultra include tutto ciò che c’è in Pro, ma spinge al massimo limiti e funzionalità: accesso alle modalità di ragionamento più pesanti come Deep Think, più crediti mensili per la generazione di video e contenuti multimodali, circa 30 TB di spazio cloud e l’integrazione con strumenti avanzati come Flow e Whisk per la creazione di video e contenuti complessi. È un profilo che ha senso soprattutto per creator professionisti, studi di produzione e imprese con volumi elevati.
Un capitolo a parte riguarda gli studenti universitari. Con il programma Gemini for Students, Google offre in Italia un anno di Google AI Pro senza costi per chi verifica il proprio status di studente entro la scadenza dell’offerta. In pratica, per dodici mesi si ha accesso completo al piano Pro – quindi a Gemini 3 Pro, Deep Research, 2 TB di spazio e integrazione nelle app Workspace – senza pagare l’abbonamento; al termine dell’anno, se non si disdice, il piano si rinnova automaticamente alla tariffa standard di 21,99 euro al mese. È una mossa pensata chiaramente per abituare una generazione intera a usare Gemini come assistente fisso per studio, tesi, progetti e prime esperienze di lavoro.
Il quadro è dunque abbastanza lineare: chi vuole solo “assaggiare” Gemini 3 può partire dalla versione gratuita dell’app e, se serve qualcosa in più, da Google AI Plus; chi lavora ogni giorno con documenti, codice e dati ha più senso che guardi a Google AI Pro; Google AI Ultra resta, almeno per ora, un prodotto di nicchia per chi vive già immerso nella produzione avanzata di contenuti e in progetti AI ad alto volume.

I numeri di Gemini 3: benchmark, Humanity’s Last Exam e LMArena
Sul fronte numerico, Gemini 3 Pro è presentato da Google come “il nostro modello più intelligente di sempre”, con risultati di stato dell’arte su un ampio ventaglio di benchmark.
Il dato che ricorre in quasi tutte le analisi è la performance su Humanity’s Last Exam, un test pensato per misurare il ragionamento accademico di livello avanzato, con circa 2.500 domande multidisciplinari. Gemini 3 Pro ottiene il 37,5% di risposte corrette senza uso di tool, contro il 21,6% della versione precedente Gemini 2.5 Pro e valori inferiori per i principali competitor (ad esempio GPT-5.x).
Un altro indicatore fortemente enfatizzato è il punteggio su LMArena, la classifica “crowdsourced” che confronta i modelli su una vasta gamma di prompt reali: Gemini 3 supera quota 1500 ELO e si posiziona in cima alla leaderboard globale, superando modelli come GPT-5.1 e Grok 4.1 Thinking.
Hassabis, però, rifiuta la discussione in termini di “esplosione” o “stallo” delle scaling law. La sua lettura è più sfumata:
«Siamo molto soddisfatti dei progressi che Gemini 3 rappresenta rispetto a 2.5: è sostanzialmente in linea con le nostre aspettative. Questo non vuol dire che non ci siano rendimenti decrescenti, ma non significa nemmeno che il ritorno sia nullo. Siamo in una fase in cui vale ancora molto la pena scalare questi modelli.»
In altre parole: l’era dei raddoppi “spettacolari” a ogni generazione forse è finita, ma il rapporto costo/benefici rimane, secondo Google, ancora ampiamente favorevole.
Dalle risposte in testo alle “interfacce generative”
Uno degli elementi più interessanti per chi sviluppa prodotti e servizi è il passaggio dalla classica risposta testuale a interfacce generate dal modello.
Durante il briefing, Google mostra esempi in cui un prompt su Vincent van Gogh non viene soddisfatto con un semplice testo, ma con una mini-lezione interattiva: immagini, timeline, elementi cliccabili, struttura di navigazione, tutto creato da Gemini 3 al volo.
In un altro caso, il modello costruisce direttamente un calcolatore di mutuo per un acquisto immobiliare, generando non solo la formula ma l’interfaccia completa, concepita per l’utente finale.
Questa logica è al centro delle cosiddette “generative interfaces” che Google sta testando in Gemini Labs: risposte organizzate come magazine interattivi, dashboard, simulazioni, layout dinamici che si adattano al tipo di domanda.
Per le imprese, la promessa è chiara: non più soltanto “copilot” che suggeriscono testo o codice, ma motori in grado di generare, al volo, strumenti su misura – un’interfaccia per analizzare la supply chain, un simulatore finanziario, una dashboard sui dati interni.
L’era degli agenti: il “Gemini agent” e le promesse per l’inbox (e oltre)
Nell’episodio di Hard Fork, uno degli annunci che colpisce di più è il Gemini agent, una funzionalità che punta a fare ciò che finora molti vendor hanno promesso ma pochi hanno portato davvero in produzione:
– attraversare la casella email,
– comprendere il contenuto dei messaggi,
– proporre risposte,
– raggruppare thread simili,
– aiutare a “svuotare” l’inbox in modo semi-automatico.
Si tratta di una prima manifestazione delle capacità agentiche di Gemini 3: modelli che non si limitano a rispondere, ma che pianificano, chiamano tool, orchestrano azioni su sistemi esterni.
Qui si innesta anche il lavoro sul tool use avanzato, che Google descrive come chiave per compiti enterprise più complessi – dal financial planning agli aggiustamenti di supply chain, fino alla valutazione automatizzata dei contratti.
Hassabis ammette che proprio queste capacità – tool calling, function calling, orchestrazione – sono un’area in cui la sicurezza va trattata con particolare cautela: più il modello è capace, più può essere sfruttato in contesti ad alto rischio, per esempio nel cyber.
«Abbiamo lavorato molto su tool call e function calling. Sono fondamentali per il coding e per il ragionamento, ma li rendono anche più capaci in ambiti rischiosi. Dobbiamo essere doppiamente cauti per evitare abusi.»
Per questo, il report di Frontier Safety su Gemini 3 Pro descrive un percorso di valutazione e mitigazione a più livelli, con test interni, valutazioni indipendenti e criteri espliciti di rischio e “risk acceptance”.
Come e dove viene distribuito Gemini 3
Sul piano del rollout, Gemini 3 Pro debutta subito in tre contesti chiave:
– l’app Gemini,
– la nuova AI Mode di Google Search,
– le API e i servizi per sviluppatori e imprese in Google Cloud e Vertex AI.
È la prima volta che un modello Gemini viene integrato in Search dal giorno uno, anche se inizialmente in una scheda separata rispetto alla classica barra di ricerca: un segnale importante sulla fiducia di Google sia nella qualità delle risposte, sia nell’efficienza del modello in termini di costo per query.
L’integrazione profonda con Search consente a Gemini 3 di sfruttare, tra l’altro, una versione migliorata della tecnica di “query fan-out”: il modello scompone la domanda in sotto-query, le invia al motore, raccoglie e sintetizza i risultati, con una maggiore capacità di capire l’intento e di scoprire contenuti nuovi.
Parallelamente, Google annuncia Gemini 3 per l’enterprise, con accesso via Vertex AI e piani chiari per ottimizzazioni future: varianti più locali, più veloci e più efficienti in termini di costo, pensate per casi d’uso aziendali ad alto volume.
Imprese e developer: dal coding “anti-gravità” agli use case verticali
Per gli sviluppatori, Gemini 3 porta un upgrade consistente sulla parte di coding: Google parla apertamente di “advanced agentic coding capabilities” e annuncia Google Antigravity, una nuova piattaforma di sviluppo agentico che punta a trasformare il modo in cui si costruiscono applicazioni orchestrate da LLM. (Skywork)
Hassabis, da ex game-developer, è particolarmente entusiasta:
«Sento che ha superato una soglia di utilità nel vibe coding. Sono tornato a fare un po’ di programmazione di videogiochi: mi sono dato dei progettini per le vacanze perché mi sembra sia arrivato a un punto in cui è incredibilmente utile e capace sul front-end e su cose del genere, dove le versioni precedenti non erano così forti.»
Per il mondo business, i blog ufficiali di Google Cloud insistono su tre macro-aree:
– pianificazione finanziaria complessa,
– ottimizzazione e simulazione della supply chain,
– analisi ed estrazione automatica di informazioni da contratti e documenti.
La combinazione di long context, ragionamento più robusto e uso avanzato di strumenti permette a Gemini 3 di prendere decisioni condizionate su dataset eterogenei (testo, tabelle, documenti scansionati) e di tradurle in azioni concrete all’interno di sistemi aziendali.
Educazione e “learn anything”: studenti come cavie (di lusso) dell’AI?
Un altro tassello strategico è il mondo education. Durante il briefing, più relatori usano la formula “learn anything”: Gemini viene sistematicamente presentato come strumento per imparare, non solo come “motore di risposta”.
Google accompagna questa narrativa con una mossa molto concreta: un anno di accesso gratuito a una versione a pagamento di Gemini per tutti gli studenti universitari USA. È, di fatto, un gigantesco programma di acquisizione utenti e un modo per abituare una generazione intera ad avere un agente AI sempre attivo su compiti, esami, progetti.
I conduttori di Hard Fork ironizzano sul fatto che sia “il primo tiro gratis”: una metafora non lontana dalla realtà, se si considerano gli incentivi a usare Gemini anche per automatizzare parti significative del lavoro accademico.
Gemini 3 allenato sulle tensor tpu di Google
Gemini 3 è stato allenato sui chip Tensor (le tpu) di Google. Non sulle gpu Nvidia quindi ma su processori proprietari progettati apposta da Google per fare calcoli su tensori, cioè sulle grandi matrici di numeri tipiche dell’AI.
Questo ha almeno due conseguenze strategiche. La prima: Google controlla l’intera filiera, dall’hardware al data center al modello, senza dipendere dalla “fabbrica dell’AI” che oggi è Nvidia, e può quindi ottimizzare meglio costi, consumi energetici e prestazioni, oltre a offrire queste stesse tpuai clienti del suo cloud come alternativa alle gpu.
La seconda: per Nvidia è un segnale che, almeno sui modelli di punta delle big tech, sta crescendo un fronte di concorrenza “in house” – Google con le tpu, ma anche altri con chip dedicati – che nel medio periodo potrebbe ridurre la dipendenza totale dai suoi processori, o quantomeno riequilibrare i rapporti di forza nel mercato dell’hardware per l’intelligenza artificiale. Non a caso Meta ha appena detto che comincerà ad addestrare Llama sulle tpu di Google.
AGI, world models e la questione “bolla”
A maggio 2025, Hassabis aveva stimato 5–10 anni per arrivare all’AGI, con “un paio di breakthrough significativi” ancora necessari. Alla domanda se Gemini 3 lo abbia fatto cambiare idea, la risposta è netta:
«Penso che siamo perfettamente in linea con la traiettoria prevista. Gemini 3 è un modello straordinario ed è esattamente sulla traiettoria di quello che mi aspettavo negli ultimi anni, dall’inizio di Gemini.»
La timeline resta quindi invariata:
«Direi ancora 5–10 anni, con forse uno o due breakthrough di ricerca ancora richiesti, soprattutto per ottenere la coerenza totale che ci si aspetta da un’intelligenza generale, migliorando ancora ragionamento, memoria e concetti come i world model su cui stiamo lavorando con Simmer e Genie.»
Sul fronte bolla AI, Hassabis adotta una posizione volutamente intermedia:
– ammette che alcuni segmenti – in particolare certi round seed a valutazioni “multi-miliardarie” con poca sostanza – mostrano segnali da bolla;
– al tempo stesso, vede “mezzo-dozzina o una dozzina di aree greenfield” (robotica, gaming, drug discovery, nuovi prodotti AI-first) che potrebbero evolvere in business da centinaia di miliardi, con Alphabet in posizione privilegiata per catturarne una parte significativa.
Il messaggio agli investitori e al mercato enterprise è chiaro: anche se ci fosse una correzione, l’obiettivo di Google è essere tra i pochi giocatori in grado di “vincere in entrambi gli scenari”, continuando a monetizzare AI dentro i propri prodotti core e, in parallelo, aprendo verticali completamente nuovi.
Che cosa significa Gemini 3 per chi fa business con l’AI
Per un pubblico come quello di AI4Business, il lancio di Gemini 3 va letto soprattutto in chiave strategico-operativa:
– segna la maturazione di una piattaforma unica che Google può infilare ovunque nel proprio stack, dall’AI Mode di Search a Workspace e Cloud;
– porta sul mercato generalista un modello che non si limita a rispondere, ma genera interfacce, costruisce strumenti, agisce come agente sugli asset digitali dell’utente;
– rafforza la narrativa di Google come player non più “in ritardo” ma allineato – e in alcuni casi avanti – rispetto ai principali concorrenti su benchmark chiave di ragionamento e multimodalità.
Per le imprese italiane, la domanda da porsi non è se Gemini 3 “supera” GPT-5.1 o Claude Sonnet 4.x in percentuale di benchmark, ma come sfruttare concretamente questa nuova generazione di modelli per:
– automatizzare attività di knowledge work ad alta intensità informativa (contratti, supply chain, pianificazione finanziaria);
– ridisegnare le interfacce dei propri prodotti con componenti generativi e agentici;
– sperimentare, con prudenza ma senza ritardi, nuove forme di collaborazione uomo-AI che vadano oltre il semplice “chatbot in sidebar”.
Su questo terreno, Gemini 3 non chiude il dibattito, ma alza l’asticella: per i CIO, i responsabili AI e gli imprenditori, è un invito esplicito a ripensare sia l’architettura tecnica, sia i modelli di business che ruotano intorno alla prossima generazione di “agentic AI”.













