Google Gemini

Nano Banana Pro, immagini ad alta disinformazione



Indirizzo copiato

Google Nano Banana Pro è il nuovo modello di generazione di immagini di DeepMind, integrato in Gemini. Offre qualità elevata e grande facilità d’uso, ma può creare scenari storici realistici e contenuti ambigui che alimentano disinformazione, complotti e narrazioni fuorvianti

Pubblicato il 25 nov 2025

Luigi Mischitelli

Legal & Data Protection Specialist at Fondazione IRCCS Casa Sollievo della Sofferenza



nano banana disinformazione
Creata con nano banana Pro – Gemini 3

Bella la nuova “chicca” di casa Google, Nano Banana Pro, ma anche una nuova frontiera verso fake news e disinformazione sempre più credibili.

Lo strumento di generazione automatica di immagini, sviluppato da Google DeepMind e incorporato nella piattaforma Gemini è, disponibile anche gratuitamente (anche se per una sola richiesta gratuita) per gli utenti con account Google.

Con Gemini 3 ha fatto un grosso passo avanti.

Nano Banana Pro – Gemini 3: la disinformazione

Al di là degli aspetti tecnici e delle potenzialità creative di questo strumento dallo strano nome, la sua comparsa online ha subito sollevato interrogativi profondi sulla sicurezza, sulla capacità di filtro dei contenuti e, soprattutto, sulla sua predisposizione involontaria a generare materiali che alimentano teorie del complotto e disinformazione. Sul punto è stata recentemente condotta un’indagine approfondita, testando il sistema con prompt storicamente controversi. Il risultato mette in luce opportunità inesplorate ma anche rischi insidiosi, tanto per gli utenti quanto per chi si occupa di regolamentazione digitale.

Creato con Gemini 3 -Nano Banana Pro

Nano Banana Pro si distingue dai predecessori per la qualità delle immagini prodotte: testi leggibili, diversità di stile, coerenza tra oggetti e sfondo, nonché estrema facilità di modifica di singoli elementi con semplici comandi scritti in italiano o inglese.

Dal punto di vista operativo, funziona tramite prompt in linguaggio naturale che permettono all’utente di descrivere dettagli, di sostituire parti della scena, di aggiungere effetti e condizioni ambientali, tutto con sorprendente immediatezza. È un sistema che “democratizza” (anche se è, praticamente, a pagamento) l’accesso agli strumenti creativi e rende la composizione visiva un processo alla portata di tutti, anche di chi non possiede competenze tecniche avanzate. Si tratta di una rivoluzione paragonabile a quella che fu, anni fa, la diffusione delle app di editing fotografico su Android e iOS, o dei filtri Instagram, ma con una “potenza di fuoco” molto superiore, poiché non si punta più a modificare foto già esistenti, ma a generare dal nulla interi universi visivi credibili.

Google Nano Banana Pro e la riscrittura visiva degli eventi storici

La vera questione, che oggi impegna gli esperti di protezione dati e sicurezza digitale, è quanto sia facile utilizzare questo modello per creare immagini di crisi, tragedie e avvenimenti storici controversi.

Esempi di disinformazione

Durante alcuni test, Nano Banana Pro ha facilmente generato una scena con l’inserimento di un secondo cecchino nei pressi di Dealey Plaza, ossia la piazza dove avvenne l’assassinio di John Fitzgerald Kennedy nel 1963. Così come ha riprodotto la Casa Bianca in fiamme e sviluppato una rappresentazione di un aereo in procinto di schiantarsi contro le Torri Gemelle, il tutto senza che il sistema richiedesse un esplicito riferimento agli eventi in questione. Bastava una descrizione lievemente indiretta da parte dell’utente, una contestualizzazione storica appena abbozzata et voilà, il modello restituiva un’immagine coerente, verosimile, spesso con dettagli che riconducevano all’evento anche se nell’input dell’utente non comparivano le parole chiave precise.

Addirittura, in casi specifici, le immagini includevano data e luogo sullo sfondo, accentuando l’illusione che si trattasse di un reperto fotografico vero.

È proprio questa facilità di generazione di scenari storici sensibili che apre la porta agli abusi: Nano Banana Pro non produce contenuti violenti espliciti secondo le regole imposte da Google, ma banalizza il dramma e la tragedia inserendo elementi “cartoon” o surreali, personaggi animati come “Donald Duck” nella metropolitana londinese durante gli attentati del 7 luglio 2005, con fumetti che ritraggono esplosioni e folla nel panico con inquietante e lugubre comicità.

Le immagini così prodotte non mostrano sangue o ferite, ma reinterpretano visivamente episodi dolorosi, con il rischio di creare “meme” virali sui social, post sensazionalistici e contenuti fuori contesto che possono diffondersi sulle piattaforme online in pochi minuti. Persone ed ambienti diventano volti e scenari di una narrazione parallela, leggibile e facilmente credibile, alimentando così la “fabbrica delle immagini” tanto cara agli ambienti complottisti e ai canali di disinformazione.

Filtri di sicurezza di Google Nano Banana Pro e loro limiti

I filtri di sicurezza integrati nel sistema del neonato di casa Google non sono sufficienti a bloccare il fenomeno. C’è da dire che Nano Banana Pro rifiuta, però, la generazione di immagini pornografiche, horror, di incitamento esplicito all’odio e, in teoria, la rappresentazione di personaggi politici reali, attribuendo elevata priorità alla protezione dell’utente.

Se per esempio chiediamo allo strumento in esame di creare un’immagine del primo ministro Giorgia Meloni che danza assieme al ministro delle infrastrutture Matteo Salvini, la risposta che ci darà Nano Banana Pro sarà la seguente: “posso aiutarti con immagini di persone, ma non posso raffigurare alcune figure pubbliche”.

Tuttavia, questi stessi filtri non riescono a impedire – e questa è la parte più grottesca – rappresentazioni di attacchi terroristici, incendi in palazzi governativi, reinterpretazioni di episodi sensibili.

In pratica, basta che il prompt (ossia la nostra richiesta) non sia “troppo diretta” per non fare attivare i filtri. La “disinvoltura” con cui l’Intelligenza Artificiale bypassa queste “porte” imposte a livello regolamentare dimostra che il problema non è solo tecnico, ma culturale e metodologico. Per quanto si cerchi di governare il processo creativo affidandosi a sistemi automatici, l’interazione tra utente e modello resta imprevedibile: basta un input leggermente ambiguo per far passare la richiesta e ottenere immagini altamente suggestive.

Google Nano Banana Pro, social network e potere delle immagini virali

La reputazione di Google, così come quella di altre aziende impegnate nella generazione automatica di contenuti, è già stata messa alla prova in passato. Nel 2024, l’azienda ha deciso di bloccare, nel suo chatbot Gemini, risposte a domande su elezioni in corso, candidati e processi di voto, rimandando gli utenti alla ricerca classica.

Una scelta motivata dal timore che bias, errori o manipolazioni introdotte dall’Intelligenza Artificiale potessero influenzare l’opinione pubblica o alimentare la sfiducia nelle istituzioni democratiche.

Mentre la restrizione sulle risposte testuali si è fatta sentire in modo evidente, l’area della generazione di immagini rimane un territorio molto più complesso. Definire cosa sia “politico”, “sensibile” o “dannoso” a livello visivo risulta estremamente difficile: le immagini prodotte da Nano Banana Pro, in molti casi, non infrangono esplicitamente le regole, ma propongono scenari e suggestioni che possono essere interpretate o strumentalizzate a seconda del contesto.

Un’immagine della Casa Bianca in fiamme, ad esempio, non è di per sé un contenuto vietato, ma se inserita in un discorso complottista può rafforzare narrazioni alternative e controfattuali.

Questa ambiguità è amplificata dal modo in cui le immagini vengono condivise online. Soprattutto in bassa risoluzione (così come accade in molte chat e social media), possono sembrare fotogrammi di notiziari, foto amatoriali rubate o testimonianze dirette di fatti mai avvenuti.

Se condivise senza contesto, contribuiscono a diffondere convinzioni distorte, a rafforzare paure e sospetti, sfruttando la tendenza umana a fidarsi di ciò che “si vede con i propri occhi”. Il pericolo non risiede solo nella falsità dell’immagine, ma nella sua capacità di influire sulle emozioni e sulle credenze, soprattutto su argomenti che suscitano già tensione o polarizzazione.

In questo scenario, sorge spontanea una domanda: fino a che punto è giusto e responsabile affidarsi ai filtri delle grandi aziende tecnologiche per bloccare la disinformazione generata dall’Intelligenza Artificiale? La vicenda di Nano Banana Pro suggerisce che, per quanto siano sofisticati, i meccanismi di controllo non sono infallibili.

Sarebbe necessario pensare a nuovi strumenti di watermarking (tecnica che consiste nell’inserire un identificatore, visibile o invisibile, in un contenuto digitale per segnalare la proprietà, proteggere i diritti d’autore e tracciare l’uso non autorizzato), all’obbligo di tracciabilità delle immagini generate, a regole di trasparenza più rigide per informare l’utente che ciò che sta vedendo non ha alcun legame con la realtà. Allo stesso tempo, la responsabilità delle aziende dovrebbe includere una gestione proattiva degli abusi prevedibili, adottando misure più energiche per limitare la proliferazione di contenuti potenzialmente dannosi.

Responsabilità delle piattaforme e quadro normativo europeo

Per il pubblico generalista, la lezione che deriva da questa storia è tanto semplice quanto fondamentale: le immagini online, oggi più che mai, devono essere considerate “in prova”, ossia sempre sotto sospetto, specialmente quando si tratta di contenuti spettacolari, inquietanti o non verificabili con altre fonti.

È necessario adottare una sorta di “igiene digitale”, verificare la provenienza, il contesto, la data di pubblicazione e confrontarsi con siti di informazione riconosciuti prima di trarre conclusioni. La credibilità dei contenuti visivi non può più essere data per scontata; serve uno sforzo costante per distinguere fatti da narrazioni, soprattutto nei casi in cui le immagini confermano paure o convinzioni personali.

La cultura critica dell’Intelligenza Artificiale è un obiettivo ancora lontano, ma indispensabile. Strumenti come Nano Banana Pro possono essere usati in modo creativo e costruttivo: illustrazione, pubblicità, design, didattica. Tuttavia, senza un’alfabetizzazione diffusa su come funziona la generazione automatica, sui suoi limiti e sui rischi di manipolazione, ogni nuovo modello diventa anche una fabbrica di immagini potenzialmente ingannevoli.

La sfida, per chi lavora nell’ambito della comunicazione, della tecnologia o della politica, è non solo quella di utilizzare responsabilmente queste piattaforme, ma anche di educare il pubblico ad analizzare in profondità ciò che vede. In un mondo digitale dominato dalla velocità e dall’emotività, non basta più “vedere per credere”: è necessario imparare a domandarsi chi ha creato l’immagine, con quale obiettivo e quali strumenti sono stati utilizzati.

La questione dell’impatto sociale dell’Intelligenza Artificiale generativa si lega inoltre a un tema di responsabilità collettiva. Se la disinformazione online è oggi uno dei principali vettori di polarizzazione sociale e di crisi della fiducia, la comparsa di strumenti capaci di produrre immagini realistiche e di facile diffusione introduce una nuova variabile nel dibattito.

La capacità degli utenti di manipolare visivamente la realtà, supportata da modelli come Nano Banana Pro, comporta il rischio di accentuare la confusione tra vero e falso e di moltiplicare le occasioni di fraintendimento pubblico. Questo non significa che la soluzione risieda nella censura sistematica o nel blocco della tecnologia: come ogni innovazione, l’Intelligenza Artificiale ha bisogno di regole chiare e di una cultura della responsabilità, che coinvolga sia i grandi player sia i singoli cittadini.

Nel dibattito italiano e internazionale, questi temi si intrecciano con quelli del Regolamento (UE) 2024/1689 in materia di Intelligenza Artificiale e del GDPR (Regolamento UE 2016/679) per quanto riguarda la protezione dei dati personali. Proprio l’Unione Europea, con il recente regolamento sull’Intelligenza Artificiale (AI Act), ha posto le basi per un sistema di controllo più strutturato, introducendo l’obbligo di trasparenza, il diritto all’informazione e una serie di parametri per definire le applicazioni “ad alto rischio”.

Tuttavia, l’evoluzione dei modelli generativi è così rapida che gli strumenti legislativi rischiano di diventare presto obsoleti, lasciando spazio a nuove zone d’ombra difficili da governare.

Educare a riconoscere le immagini generate dall’AI

In definitiva, la storia di Nano Banana Pro racconta la “doppia faccia” dell’Intelligenza Artificiale generativa: da un lato, la democratizzazione della creatività, la possibilità di esprimere idee e visioni mai realizzate prima; dall’altro, il rischio di amplificare fenomeni di falsificazione, polarizzazione e perdita di fiducia collettiva.

Per uscire da questa impasse, serve un patto fra innovatori, legislatori e cittadini, orientato non solo a governare la tecnologia, ma a promuovere una cultura digitale fondata sulla consapevolezza, sulla verifica dei fatti e sull’etica della comunicazione.

Non sarà un percorso breve: educare alla critica della “immagine artificiale”, insegnare a riconoscere le fonti e promuovere un uso responsabile degli strumenti di generazione automatica sarà compito del prossimo decennio. La tecnologia corre, spesso più veloce della capacità di adattamento della società.

Ma la possibilità di arginare l’impatto negativo dei modelli come Nano Banana Pro dipende dalla nostra volontà di riconoscere il rischio e di agire di conseguenza, investendo nella formazione digitale, nel dialogo tra pubblico e privato e nella costruzione di piattaforme di informazione affidabile e trasparente.

Solo così si potrà evitare che la “fabbrica delle immagini” diventi terreno fertile per la disinformazione e il complottismo. Per una società che deve imparare di nuovo a distinguere realtà e finzione, la sfida dell’Intelligenza Artificiale è appena iniziata e richiede un’alleanza senza precedenti tra tecnologia, cultura e senso critico.

guest

1 Commento
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti
dac
dac
4 giorni fa

Le immagini generate da Nano Banana hanno tutte il watermarking digitale per cui è abbastanza facile capire che non è una vera immagine.

Articoli correlati