Negli ultimi decenni, la crescente attenzione verso la sostenibilità ambientale e la responsabilità sociale delle imprese ha determinato un aumento esponenziale delle comunicazioni aziendali relative a pratiche sostenibili e riduzione dell’impatto ambientale.
Indice degli argomenti
Greenwashing e intelligenza artificiale: il nodo della responsabilità
Questo fenomeno, se da un lato riflette un avanzamento culturale, dall’altro ha generato nuove forme di rischio giuridico: il greenwashing, ossia la diffusione di dichiarazioni ambientali ingannevoli, fuorvianti o non verificabili, che mirano a costruire un’immagine di responsabilità ambientale superiore alla realtà.
La rilevanza economica e reputazionale di queste pratiche ha portato le autorità europee e nazionali a rafforzare la disciplina normativa, culminando nella Direttiva (UE) 2024/825, che introduce obblighi più stringenti per la comunicazione ambientale delle imprese e sancisce la necessità di prove scientifiche verificabili per ogni affermazione ambientale (1). Parallelamente, la diffusione dei sistemi di intelligenza artificiale generativa ha aperto un nuovo fronte di criticità. Sistemi di elaborazione linguistica basati su modelli di intelligenza artificiale e simili consentono alle imprese di produrre testi, report ESG e comunicazioni pubblicitarie con velocità e uniformità senza precedenti. Tuttavia, questi sistemi possono generare errori, omissioni o addirittura dati non verificabili, accentuando il rischio di greenwashing. Nel contesto giudiziario e regolatorio, ciò pone una domanda centrale: come attribuire responsabilità e garantire la verificabilità dei contenuti quando essi derivano da processi algoritmici complessi?
Proverò ad esplorare la questione, analizzando il fenomeno sotto quattro profili integrati: giuridico, probatorio, comunicativo e ambientale. Ma si evidenzierà come la responsabilità resti saldamente ancorata all’attore umano o organizzativo, e come l’uso dell’AI introduca nuove difficoltà nella prova, nella verifica e nella valutazione della correttezza delle dichiarazioni.
L’obiettivo è delineare i rischi e le possibili soluzioni normative e giurisprudenziali, con particolare attenzione al contesto europeo e alla regolamentazione sui green claims. In particolare, il rischio giuridico del greenwashing deriva dal fatto che tali pratiche possono influenzare le decisioni dei consumatori e distorcere la concorrenza, configurandosi come pratiche commerciali sleali ai sensi della Direttiva 2005/29/CE e, più recentemente, della Direttiva (UE) 2024/825.
Green claims e intelligenza artificiale nel quadro normativo europeo
Il diritto dell’ambiente ha storicamente affrontato la questione della tutela degli ecosistemi, della riduzione dell’inquinamento e della responsabilità delle imprese per danni ambientali. Negli ultimi anni, tuttavia, la prospettiva si è estesa anche alla comunicazione delle performance ambientali delle imprese, ossia ai cosiddetti green claims. Questi ultimi rappresentano dichiarazioni pubbliche riguardanti la sostenibilità di prodotti, servizi o processi produttivi, che devono essere valutate in termini di accuratezza, verificabilità e trasparenza.
La Direttiva (UE) 2024/825 costituisce un punto di riferimento fondamentale in questo ambito. La normativa prevede che ogni dichiarazione ambientale sia supportata da prove scientifiche verificabili e, se necessario, sottoposta a verifica indipendente. In pratica, ciò significa che un’impresa non può limitarsi a dichiarare, ad esempio, la neutralità climatica di un prodotto basandosi esclusivamente su meccanismi di compensazione, senza disporre di dati concreti e certificati. La direttiva rafforza così i principi introdotti dalla Direttiva 2005/29/CE sulle pratiche commerciali sleali, adattandoli alla complessità della comunicazione ambientale.
Nel contesto giudiziario, la normativa europea pone particolare attenzione alla responsabilità organizzativa. Anche quando i dati ambientali sono sintetizzati o elaborati tramite strumenti digitali, inclusa l’intelligenza artificiale, l’impresa resta l’unico soggetto responsabile della correttezza delle informazioni diffuse. Ciò comporta che la documentazione interna, i registri dei dati, gli audit e le verifiche preventive assumano un ruolo centrale nel contenzioso, perché costituiscono il mezzo principale attraverso cui l’impresa può dimostrare di aver agito diligentemente e di aver rispettato gli obblighi normativi.
Settori esposti e oneri di verifica
Un aspetto rilevante riguarda l’applicazione dei principi della Direttiva 2024/825 ai settori più critici in termini di emissioni e impatti ambientali, come l’energia, l’automotive e i materiali industriali. In questi contesti, le dichiarazioni relative alla riduzione delle emissioni, all’efficienza energetica o alla neutralità carbonica devono essere supportate da dati verificabili lungo l’intero ciclo di vita del prodotto, compresi fornitori e processi di produzione. Questo approccio riduce il rischio di greenwashing e, allo stesso tempo, pone sfide significative in termini di raccolta e gestione dei dati, soprattutto quando le informazioni provengono da sistemi complessi di AI o da fonti esterne.
Dal punto di vista probatorio, la normativa europea incoraggia una gestione trasparente e tracciabile dei dati ambientali, sia interni sia esterni. La combinazione tra obblighi di prova scientifica e verifica indipendente costituisce un meccanismo efficace per garantire che le dichiarazioni diffuse siano attendibili, anche quando i contenuti sono parzialmente generati da AI. In altre parole, la direttiva non vieta l’uso dell’AI, ma stabilisce che la responsabilità giuridica rimane saldamente in capo all’impresa, e che la tecnologia deve essere supportata da processi di controllo umano e audit documentati.
Effetti pratici per imprese e professionisti
Le implicazioni pratiche per le imprese e i professionisti della comunicazione ambientale sono molteplici. Prima di diffondere un green claim, l’impresa deve essere in grado di fornire evidenze scientifiche, certificazioni indipendenti e tracciabilità dei dati. Qualsiasi comunicazione incompleta, imprecisa o non verificabile può configurare un comportamento ingannevole, con possibili sanzioni amministrative o civili. Questo quadro normativo mette in evidenza come il diritto dell’ambiente e il diritto della comunicazione siano strettamente interconnessi: la tutela degli ecosistemi passa anche attraverso la corretta informazione dei consumatori e la prevenzione della disinformazione ambientale.
Infine, è interessante osservare come la direttiva europea anticipi alcune sfide future legate all’uso dell’AI nella comunicazione ambientale. L’adozione crescente di sistemi generativi rende cruciale l’implementazione di procedure di verifica interna, audit indipendenti e documentazione accurata, strumenti che permettono di dimostrare, in sede giudiziaria, la diligenza dell’impresa nella gestione delle informazioni ambientali. In questo senso, la normativa europea costituisce un modello avanzato di tutela del consumatore e di prevenzione del greenwashing, integrando principi di diritto dell’ambiente, diritto della comunicazione e responsabilità organizzativa.
La responsabilità nella comunicazione ambientale
Il diritto della comunicazione attribuisce la responsabilità per il contenuto al soggetto che diffonde il messaggio. Questo principio trova riscontro non solo nella disciplina europea, ma anche nella prassi giudiziaria in materia di pubblicità e marketing. Nel contesto del greenwashing, il concetto si applica ai report ESG, alle campagne pubblicitarie e a ogni forma di comunicazione che possa indurre il consumatore a valutare positivamente pratiche ambientali inesistenti (greenwashing) o non completamente documentate.
Il collegamento con la responsabilità professionale emergerà chiaramente nella successiva analisi sull’uso dell’intelligenza artificiale nei procedimenti giudiziari.
L’uso dell’AI nella produzione dei contenuti ambientali
Negli ultimi anni, l’intelligenza artificiale generativa ha trasformato profondamente il modo in cui le imprese producono comunicazioni e report ambientali. Sistemi come ChatGPT, Claude, Bard e strumenti proprietari consentono di sintetizzare grandi quantità di dati relativi a consumi energetici, emissioni e impatti ambientali, producendo testi coerenti e dettagliati in tempi molto ridotti. Questa tecnologia viene oggi impiegata non solo per la redazione dei report ESG, ma anche per le campagne pubblicitarie, i contenuti dei social media e i testi divulgativi aziendali, creando un flusso comunicativo estremamente rapido e uniforme.
Nonostante questi vantaggi, l’uso dell’AI introduce rischi significativi. Studi recenti hanno evidenziato come le AI generative possano produrre informazioni inesatte o fuorvianti, creare dati non verificabili e sintetizzare contenuti senza indicare le fonti, fenomeno noto come “hallucinated data” (2). In questo contesto, la possibilità che le imprese diffondano dichiarazioni ambientali non verificate, pur presentandole come scientificamente fondate, determina il rischio concreto di un greenwashing alimentato dall’AI, definito dagli studiosi come “AI-powered greenwashing”.
Report ESG, pubblicità e contenuti digitali
L’applicazione più evidente dell’AI riguarda i report ESG, strumenti ormai centrali nella comunicazione aziendale e nella rendicontazione della sostenibilità. L’AI consente di automatizzare l’elaborazione di indicatori di sostenibilità, redigere testi descrittivi coerenti con i principi ESG, confrontare i dati aziendali con benchmark di settore e produrre analisi previsionali sulle emissioni. Tuttavia, l’automazione non elimina i rischi: le informazioni generate possono essere imprecise, incomplete o persino inventate, con conseguenze rilevanti ai sensi della Direttiva (UE) 2024/825, che richiede prove scientifiche verificabili per ogni dichiarazione ambientale.
Parallelamente, l’AI viene sempre più impiegata nella comunicazione commerciale, dove la produzione massiva di contenuti pubblicitari, post sui social media, testi per etichette e packaging e articoli divulgativi può amplificare i rischi di diffusione di informazioni ingannevoli. I sistemi generativi producono testi linguisticamente coerenti, ma non garantiscono l’accuratezza scientifica o la conformità normativa delle informazioni. In tal senso, la responsabilità giuridica resta saldamente nelle mani dell’impresa che diffonde il messaggio, indipendentemente dall’origine algoritmica del contenuto.
Verificabilità, audit e tracciabilità dei dati
Il punto critico riguarda soprattutto la verificabilità delle informazioni generate. Gli algoritmi generativi non lasciano tracce sistematiche delle fonti utilizzate né garantiscono che i dati sintetizzati siano aggiornati o corretti scientificamente. Questo crea difficoltà probatorie in sede giudiziaria, aumenta il rischio di responsabilità aziendale e rende opaca la catena decisionale interna all’impresa. In risposta a tali criticità, gli studiosi e i regolatori suggeriscono l’adozione di procedure interne di verifica, audit indipendenti e sistemi di tracciabilità dei dati, strumenti essenziali per ridurre il rischio di contenuti non verificabili e per garantire la compliance con la normativa europea.
In sintesi, l’intelligenza artificiale rappresenta un potente strumento per la produzione di contenuti ambientali, ma introduce rischi significativi in termini di affidabilità e verificabilità delle informazioni. L’uso dell’AI nella comunicazione aziendale può facilitare la diffusione di green claims non verificabili, aumentando il rischio di contenziosi e di sanzioni. Per questo motivo, diventa essenziale che le imprese adottino sistemi di controllo interno rigorosi, procedure di audit e strumenti di tracciabilità dei dati, così da garantire la compliance normativa e ridurre i rischi di greenwashing algoritmico.
La fallibilità dei detector di testi generati dall’intelligenza artificiale
Quando si discute di contenziosi e di responsabilità legale legati ai contenuti generati con l’AI, sorge spontanea la domanda: possono gli strumenti automatici di rilevazione distinguere con affidabilità tra testi umani e testi generati da intelligenza artificiale? La risposta, sulla base delle evidenze scientifiche disponibili, è che gli attuali detector non sono affidabili né sufficientemente accurati per essere usati come prova certa in un procedimento giuridico o accademico.
Numerosi studi indipendenti hanno messo in luce limiti molto significativi. Una ricerca pubblicata sull’International Journal for Educational Integrity (3) ha testato vari strumenti di detection e ha concluso che la maggior parte di essi non supera soglie di accuratezza soddisfacenti, con molti classificatori che si comportano quasi come un semplice tiro di moneta nella capacità di identificare testi AI-generated. Nei risultati analizzati, la migliore accuratezza possibile si attestava intorno al 50 % nella distinzione tra testo umano e generato da AI, mentre alcuni strumenti riuscivano a identificare contenuti umani con maggiore affidabilità rispetto a quelli creati automaticamente. Questo significa che circa 1 testo su 5 generato da AI potrebbe essere erroneamente attribuito a un autore umano e viceversa, con errori sia di falsi positivi sia di falsi negativi.
Studi, bias e tecniche di evasione
Un altro studio pubblicato su Current Medical Research and Opinion (4) ha evidenziato l’ampia variabilità tra strumenti diversi: alcuni detector attribuiscono in modo incoerente la paternità AI ai testi generati da modelli come ChatGPT-4, mentre altri non riescono a riconoscerli sistematicamente. Questo porta a risultati contrastanti a seconda dello strumento impiegato, mettendo in discussione la validità di qualsiasi giudizio basato su un singolo detector.
Ancora, uno studio dell’Università di Stanford sui bias dei detector (5) mostra che i sistemi di detection possono classificare come “AI-generated” testi umani scritti da chi non è madrelingua, con percentuali molto elevate di falsi positivi. E così anche uno studio accademico su detector e tecniche di evasione (6) evidenzia che l’accuratezza dei detector può scendere fino al 39,5%, e addirittura al 17,4% quando il testo viene leggermente modificato, mostrando che i sistemi possono essere facilmente aggirati.
Perché non bastano come prova
In pratica, la fallibilità dei detector emerge soprattutto in tre condizioni ricorrenti. In primo luogo, modifiche minime al testo, come una parafrasi o una riformulazione, possono rendere il testo generato da AI praticamente “invisibile” ai rilevatori: la stessa frase, se riscritta, può passare da classificazione AI a classificazione umana con percentuali opposte. In secondo luogo, quando gli algoritmi di detection sono messi alla prova con testi generati in stili specifici (ad esempio, scientifici, colloquiali o tecnici), la loro capacità di distinzione cala drasticamente: alcuni modelli performano meglio con testi generici ma falliscono con contenuti che imitano la scrittura specialistica. Infine, anche testi umani talvolta vengono classificati erroneamente come generati da AI, soprattutto quando presentano uno stile molto corretto o standardizzato: ciò genera falsi positivi che possono penalizzare chi scrive con cura e professionalità.
Queste criticità sono confermate da analisi più teoriche pubblicate recentemente, che mostrano come strumenti di rilevazione spesso soffrano di bassa sensitività e alta false discovery rate, ovvero una probabilità molto alta di attribuire erroneamente la paternità AI o umana in testi modificati o complessi, soprattutto quando il detector è confrontato con testi che sono stati in qualche modo revisionati dall’essere umano.
Il panorama empirico dei rilevatori disponibili è quindi molto variabile: mentre alcune piattaforme di detection affermano tassi di accuratezza elevati, test comparativi indipendenti mostrano che questi numeri non si replicano in condizioni reali, soprattutto quando si considerano testi moderni generati da modelli di ultima generazione o contenuti misti.
In termini giuridici questo implica una conseguenza cruciale: non si può considerare un detector di AI come prova scientificamente valida e determinante per stabilire l’origine di un testo in un contenzioso. A differenza di altri strumenti di prova (come testimonianze, documenti verificati o dati incontestabili), i detector di testi AI forniscono solo indicatori probabilistici, che non possono essere qualificati come evidenza certa in applicazioni legali o accademiche. Per questo motivo molte università, ad esempio, hanno smesso di usare strumenti di rilevazione AI-based per prendere decisioni disciplinari, riconoscendo che la loro affidabilità non è sufficiente per giudicare un comportamento scorretto.
L’affidabilità dei detector di testi generati da intelligenza artificiale è oggi fortemente limitata: non esistono metodi universalmente accettati per distinguere con certezza un testo umano da uno prodotto da un modello linguistico di grandi dimensioni, e gli strumenti disponibili presentano tassi di errore che li rendono inadeguati come prova giuridica indipendente. Questo rafforza ancora una volta l’idea che la responsabilità nel contesto dei green claims (come in altri ambiti) debba basarsi su verifica umana, processi documentati e controllo dei dati, non sull’esito di un software automatico.
Il nodo della prova tra opacità algoritmica e controlli umani
L’introduzione dell’intelligenza artificiale nella produzione dei contenuti ambientali solleva -come si è visto- una questione centrale per il diritto: la difficoltà di accertare la veridicità e l’origine dei green claims. Nei contenziosi, infatti, il problema non riguarda tanto la liceità dell’uso dell’AI quanto la prova della correttezza delle informazioni generate automaticamente. Quando un’impresa diffonde un report ESG, un claim pubblicitario o un testo divulgativo prodotto con il supporto di un sistema algoritmico, il giudice si trova a dover stabilire se i dati e le affermazioni siano affidabili, scientificamente fondati e verificabili.
I sistemi generativi di AI presentano una caratteristica peculiare che complica notevolmente il lavoro probatorio: essi producono testi coerenti e convincente dal punto di vista linguistico, ma spesso senza citare fonti precise o verificabili, e talvolta includendo dati inesatti o inventati. Questo fenomeno, noto in letteratura come “hallucination”, rende difficile distinguere un contenuto veritiero da uno fuorviante. Anche gli strumenti di rilevazione dell’AI, progettati per identificare testi generati algoritmicamente, si è detto che offrono solo valutazioni probabilistiche, incapaci di fornire una prova certa della natura del contenuto. E un ulteriore problema riguarda l’opacità dei processi decisionali algoritmici. Spesso i sistemi generativi utilizzano modelli complessi e dataset proprietari, di cui anche l’impresa potrebbe avere conoscenze limitate. Questa opacità rende difficile ricostruire la catena logica che ha portato alla generazione del testo e complicando la difesa in eventuali contenziosi. In assenza di tracciabilità e audit interni, il rischio probatorio aumenta, perché il giudice potrebbe non avere strumenti per verificare se le informazioni siano state costruite sulla base di dati affidabili o siano il frutto di una generazione automatica priva di fondamento scientifico.
Le normative europee più recenti, in particolare la Direttiva (UE) 2024/825, affrontano indirettamente questi rischi imponendo l’obbligo per le imprese di disporre di prove scientifiche verificabili e certificazioni indipendenti per ogni dichiarazione ambientale. Questi obblighi rappresentano uno strumento giuridico fondamentale per mitigare l’incertezza probatoria. Essi richiedono alle imprese di conservare documentazione dettagliata, audit e dati originali che possano essere prodotti in giudizio, riducendo così il rischio che un contenuto generato dall’AI diventi un fattore di responsabilità incontrollabile.
La difficoltà di attribuzione della responsabilità non è dunque tecnica, ma organizzativa e procedurale. Anche quando i contenuti vengono prodotti automaticamente, il principio giuridico resta chiaro: la responsabilità è dell’impresa, che deve garantire la correttezza, la trasparenza e la verificabilità delle informazioni diffuse. Questa impostazione richiama analogie con la responsabilità professionale degli avvocati e dei consulenti: l’uso di strumenti sofisticati non solleva dalla necessità di esercitare un controllo umano attento e documentato.
Infine, il problema probatorio assume un rilievo maggiore nel contesto del diritto della comunicazione, perché i green claims costituiscono messaggi commerciali destinati a influenzare i consumatori. La difficoltà di provare scientificamente l’origine e la correttezza dei contenuti genera una zona grigia in cui le imprese potrebbero, involontariamente o meno, diffondere dichiarazioni ingannevoli. La sfida giuridica consiste quindi nel bilanciare l’innovazione tecnologica con la tutela del consumatore e la trasparenza del mercato, garantendo che l’AI non diventi uno strumento di elusione delle responsabilità.
Casi giuridici nazionali e Internazionali sull’uso dell’AI nei processi
La giurisprudenza recente conferma l’emergenza dei problemi segnalati.
Il caso più noto e, probabilmente, uno dei primi in materia, è quello del giudice federale del United States District Court for the Southern District of New York nel procedimento Mata v. Avianca (7) in cui gli avvocati avevano depositato una memoria contenente precedenti giurisprudenziali inesistenti, generati da AI. Il giudice li sanzionò perché avevano citato decisioni inventate senza verificarne l’esistenza. Il giudice non proibì l’uso della tecnologia, ma punì la violazione del dovere professionale di verifica delle fonti, sottolineando l’obbligo di verificare le fonti e la correttezza delle informazioni.
I precedenti italiani più recenti
In Italia, il Tribunale di Firenze (Ordinanza 14 marzo 2025, R.G. n. 11053/2024) ha emesso un provvedimento analogo a quello statunitense (8). Anche in questo caso l’avvocato aveva inserito nel primo atto di difesa riferimenti a sentenze inesistenti risultate prodotte da AI generativa. Il Tribunale non ha applicato sanzioni ex art. 96 c.p.c., ma l’ordinanza è significativa come indicatore della sensibilità del giudice a errori derivanti da AI, sollecitando la necessità di controllo umano. Il Tribunale di Torino, il 16 settembre 2025 (sentenza n. 2120/2025), ha invece addirittura qualificato come lite temeraria un ricorso in opposizione a ingiunzione di pagamento redatto con supporto di AI, sanzionandolo per incoerenza degli atti e citazioni giurisprudenziali prive di fondamento logico (9). Il 21 ottobre 2025, poi, il TAR Lombardia (Sez. V, n. 3348) ha segnalato all’Ordine degli Avvocati un legale che aveva citato in un atto amministrativo precedenti giuridici inesistenti generati da sistemi AI, ritenendo che l’uso non verificato costituisse violazione dei doveri di lealtà e integrità professionale (10).
L’esperienza giurisprudenziale italiana e statunitense offre spazio ad un’importante riflessione: i giudici non sanzionarono l’uso dell’AI in sé, che avrebbe indotto in una tensione con il principio di libertà dei mezzi di difesa dell’avvocato, ma la violazione di un principio deontologico e processuale per l’omessa verifica delle fonti, generando citazioni inesistenti. L’insegnamento è diretto: l’AI è uno strumento, non un soggetto responsabile; la responsabilità resta umana e organizzativa. Questo principio è applicabile al contesto dei green claims: l’AI può essere utilizzata come strumento di supporto, ma la responsabilità della verifica e della correttezza scientifica dei contenuti resta umana o organizzativa. La lezione giuridica è chiara: la presenza di strumenti automatizzati non riduce né elimina la responsabilità del soggetto che diffonde le informazioni. La prova della correttezza e dell’origine delle informazioni resta un onere in capo al soggetto che diffonde la comunicazione.
Dalla teoria alla compliance nella comunicazione ambientale
L’evoluzione dei green claims e l’introduzione dell’intelligenza artificiale nella loro produzione pongono importanti questioni sul piano del diritto della comunicazione. Le dichiarazioni ambientali non sono semplici testi informativi, ma strumenti che influenzano le scelte dei consumatori e la percezione del mercato. Di conseguenza, la responsabilità legale e la correttezza delle informazioni diventano elementi centrali per garantire trasparenza e fiducia nel settore.
Quando un’impresa utilizza l’AI per generare report ESG, testi pubblicitari o contenuti social, il rischio principale è che le informazioni siano accurate solo formalmente, ma prive di fondamento scientifico o verificabile. La difficoltà di attribuire responsabilità direttamente al sistema algoritmico rende necessario che l’impresa sviluppi procedure interne solide, capaci di documentare le fonti dei dati e la loro elaborazione. Senza queste misure, un contenuto generato da AI può facilmente trasformarsi in un green claim ingannevole, esponendo l’impresa a responsabilità amministrative o civili secondo quanto previsto dalla Direttiva (UE) 2024/825.
Un parallelismo interessante si trova -come appena detto- nella responsabilità professionale degli avvocati. E come i tribunali non condannino in astratto l’uso dell’intelligenza artificiale, ma valutino la responsabilità dell’autore umano per la verifica e la coerenza dei contenuti diffusi, allo stesso modo, nelle comunicazioni ambientali, la presenza dell’AI non esonera l’impresa dal dovere di verifica, tracciabilità e correttezza dei contenuti. La responsabilità umana rimane il fulcro della tutela legale. Questa logica è speculare ai requisiti dei green claims normati dalla Direttiva (UE) 2024/825, secondo cui le imprese devono attestare l’accuratezza e verificabilità scientifica delle dichiarazioni ambientali indipendentemente dalla tecnologia usata.
Audit, tracciabilità e formazione del personale
Questa dinamica ha importanti implicazioni pratiche. In primo luogo, (i) le imprese devono integrare nei propri processi di comunicazione strumenti di audit interno e procedure di revisione dei dati, garantendo che ogni affermazione possa essere verificata in caso di contestazione. In secondo luogo, (ii) l’adozione di sistemi di tracciabilità dei dati e di documentazione dei processi algoritmici consente di dimostrare la diligente gestione delle informazioni, riducendo il rischio di contenziosi e sanzioni. Infine, (iii) le imprese devono formare il proprio personale, affinché sappia interpretare correttamente i risultati prodotti dall’AI e non diffondere comunicazioni ingannevoli.
Il diritto della comunicazione si intreccia così con il diritto dell’ambiente, perché i green claims hanno un impatto diretto sul comportamento dei consumatori e sulla reputazione delle imprese. La diffusione di informazioni scorrette o non verificabili mina la fiducia nel mercato e può avere effetti negativi anche sulla percezione delle politiche ambientali e sulla partecipazione dei cittadini alla sostenibilità. In questo senso, le normative europee, rafforzate dalla Direttiva 2024/825, cercano di creare un equilibrio tra innovazione tecnologica e tutela del consumatore, imponendo obblighi di trasparenza e verificabilità delle informazioni.
L’integrazione tra diritto della comunicazione e diritto dell’ambiente diventa ancora più rilevante nel contesto dei social media e dei canali digitali, dove i contenuti ambientali vengono diffusi rapidamente e possono raggiungere milioni di utenti. L’AI amplifica questa diffusione, ma allo stesso tempo rende più difficile controllare l’accuratezza delle informazioni. Per questo motivo, le imprese devono considerare la comunicazione ambientale come un’attività regolata, dove ogni claim deve essere supportato da evidenze concrete e documentabili, indipendentemente dal mezzo di diffusione o dalla tecnologia utilizzata.
In sostanza, le riflessioni pratiche suggeriscono che l’uso dell’AI nella comunicazione ambientale non può essere separato da una gestione responsabile dei contenuti. La combinazione tra audit interno, procedure di verifica, documentazione dei dati e formazione del personale rappresenta la strategia più efficace per ridurre il rischio di greenwashing e per garantire la compliance normativa. Il diritto della comunicazione, in questo contesto, si configura come uno strumento di protezione del consumatore e di responsabilizzazione dell’impresa, rafforzando la connessione tra trasparenza, correttezza informativa e tutela dell’ambiente.
La Ue punta su un rafforzamento dei requisiti di tracciabilità e certificazione indipendente
L’introduzione dell’intelligenza artificiale nella produzione di green claims e comunicazioni ambientali pone sfide che non possono essere affrontate esclusivamente con strumenti tradizionali di regolamentazione. Guardando al futuro, la combinazione tra innovazione tecnologica e responsabilità giuridica richiederà un approccio integrato che includa sia soluzioni normative sia strumenti tecnici in grado di garantire verificabilità, trasparenza e affidabilità dei dati.
La normativa europea sembra orientata verso un rafforzamento dei requisiti di tracciabilità e certificazione indipendente. La Direttiva (UE) 2024/825 ha già imposto che ogni dichiarazione ambientale sia supportata da prove scientifiche verificabili, ma è possibile che in futuro vengano introdotti standard più dettagliati sulla gestione dei dati, in particolare quelli derivanti da sistemi di intelligenza artificiale. Tali standard potrebbero includere requisiti per la documentazione dei processi algoritmici, l’archiviazione dei dataset utilizzati e la verifica periodica dei modelli generativi da parte di soggetti indipendenti.
Watermarking, dataset certificati e controlli indipendenti
Sul piano tecnico, le prospettive future includono l’adozione di strumenti di watermarking digitale e tracciabilità dell’AI, che consentirebbero di identificare la fonte e il percorso dei contenuti generati automaticamente. Tali soluzioni, oggi in fase di sperimentazione, potrebbero diventare uno standard per la comunicazione ambientale, riducendo il rischio di contenuti ingannevoli e semplificando la verifica in sede giudiziaria o regolatoria. L’adozione di audit interni e sistemi di controllo dei dati diventerà sempre più critica, trasformando la gestione dei green claims in un processo strutturato, documentato e verificabile.
Un altro elemento di innovazione riguarda l’integrazione tra intelligenza artificiale e sistemi di certificazione ESG. È possibile immaginare che, in un futuro prossimo, le AI siano direttamente collegate a database certificati, consentendo la produzione automatica di report e comunicazioni basati esclusivamente su dati verificati. Questo approccio ridurrebbe significativamente il rischio di errori o dichiarazioni ingannevoli, creando una connessione diretta tra tecnologia, evidenze scientifiche e responsabilità aziendale.
Sul piano giuridico, le prospettive future prevedono anche un rafforzamento dei principi di responsabilità organizzativa. La combinazione tra normative più stringenti, audit indipendenti e tecnologie di tracciabilità richiederà alle imprese di dimostrare non solo la correttezza dei dati, ma anche la diligenza nella gestione dei processi comunicativi. In questo senso, la responsabilità umana e organizzativa rimane centrale, anche in un contesto dove l’AI gioca un ruolo crescente nella produzione dei contenuti.
Infine, la regolazione europea potrebbe sviluppare strumenti specifici per la formazione e la certificazione dei professionisti della comunicazione ambientale, affinché sappiano utilizzare correttamente l’AI e gestire i rischi probatori. L’obiettivo sarà creare un ecosistema in cui l’innovazione tecnologica possa convivere con la trasparenza, la correttezza delle informazioni e la tutela del consumatore. Studi recenti indicano come la combinazione di normative, audit, formazione e tecnologia rappresenti la strada più efficace per prevenire greenwashing e garantire la compliance dei green claims.
Quindi le prospettive future mostrano una convergenza tra innovazione tecnologica, responsabilità giuridica e strumenti di verifica avanzata. L’intelligenza artificiale continuerà a trasformare il modo in cui le imprese comunicano le proprie performance ambientali, ma il successo di questa trasformazione dipenderà dalla capacità delle imprese di integrare tecnologia, controllo umano, audit e conformità normativa, garantendo così che l’AI diventi uno strumento di supporto e non un fattore di rischio probatorio o di greenwashing.
Una chiusura provocatoria sul confine tra autore e algoritmo
L’analisi dei green claims alla luce dell’intelligenza artificiale mette in evidenza come la comunicazione ambientale stia vivendo una fase di trasformazione senza precedenti. L’AI generativa ha introdotto opportunità significative, consentendo alle imprese di produrre report, testi divulgativi e campagne pubblicitarie in tempi rapidissimi e con una coerenza linguistica difficile da ottenere manualmente. Tuttavia, questa tecnologia porta con sé anche rischi rilevanti, in primo luogo legati alla veridicità e alla verificabilità dei contenuti.
Il problema centrale risiede nel fatto che le AI generative possono produrre dati inesatti, informazioni non documentabili o sintetizzazioni fuorvianti. In assenza di controlli rigorosi, queste informazioni possono trasformarsi in green claims ingannevoli, configurando una forma di greenwashing algoritmico. Come dimostrano i casi giudiziari recenti, la responsabilità non ricade sull’AI, ma sulle persone o sulle organizzazioni che diffondono i contenuti. Ciò sottolinea l’importanza di procedure interne di verifica, audit indipendenti e tracciabilità dei dati come strumenti essenziali per garantire la compliance normativa.
Il diritto dell’ambiente e il diritto della comunicazione si intrecciano strettamente in questo contesto. Le normative europee, stabiliscono che ogni dichiarazione ambientale debba essere supportata da prove scientifiche verificabili e, quando necessario, sottoposta a verifica indipendente. Questo obbligo rafforza la tutela del consumatore e impone alle imprese di adottare misure di trasparenza e responsabilità organizzativa, indipendentemente dalla tecnologia utilizzata. In altre parole, l’innovazione tecnologica non esonera l’impresa dalla responsabilità di garantire correttezza, chiarezza e affidabilità dei propri messaggi ambientali.
Le prospettive future indicano che l’evoluzione normativa e tecnologica dovrà procedere di pari passo. L’adozione di strumenti di tracciabilità dei contenuti generati da AI, audit interni, collegamento dei sistemi AI a database certificati e formazione dei professionisti della comunicazione rappresenta la strada più efficace per mitigare il rischio probatorio e ridurre la possibilità di greenwashing. L’obiettivo non è vietare l’uso dell’AI, ma garantire che la tecnologia sia integrata in un quadro organizzativo e normativo solido, dove la responsabilità umana e la trasparenza restano centrali.
In definitiva, l’intelligenza artificiale rappresenta una sfida e un’opportunità per il diritto dell’ambiente e della comunicazione. Se da un lato consente una maggiore efficienza e rapidità nella produzione dei contenuti, dall’altro richiede nuove regole, procedure e responsabilità per assicurare che le informazioni diffuse siano veritiere, verificabili e conformi agli standard legali. Il successo di questa integrazione dipenderà dalla capacità delle imprese di gestire con rigore i dati, di documentare ogni processo decisionale e di utilizzare l’AI come strumento di supporto, evitando che diventi il prossimo grande problema probatorio nei contenziosi sui green claims.
In conclusione, il futuro della comunicazione ambientale sarà tanto più affidabile quanto più sarà possibile combinare tecnologia, trasparenza e responsabilità organizzativa, garantendo che l’AI diventi uno strumento di innovazione responsabile, piuttosto che un fattore di rischio per il consumatore, il mercato e l’ambiente.
In conclusione, l’intelligenza artificiale può diventare uno strumento potente per la comunicazione ambientale, ma il suo corretto utilizzo richiede trasparenza, controllo umano e verifica rigorosa dei dati. Solo combinando tecnologia, responsabilità organizzativa e procedure di audit si può garantire che i green claims siano veritieri, affidabili e conformi alla normativa.
E adesso, ditemi voi: riuscite a scoprire con assoluta certezza se questo articolo è stato scritto da me o generato con l’AI? Vi lascio nel dubbio, non senza affermare che se anche l’AI avesse contribuito a produrre alcune parti del testo, la responsabilità delle parole è interamente mia: la tecnologia supporta, ma chi firma risponde sempre dei contenuti.
Note
(1) Commissione europea. Direttiva (UE) 2024/825 del Parlamento Europeo e del Consiglio sulle pratiche commerciali sleali e green claims. Consultabile su Consilium.europa.eu:
Senken.io (2024). Guida alla Direttiva UE sui green claims. https://www.senken.io/academy/green-claims-directive-eu?utm
(2) Obeso O., Arditi A., Ferrando J., Freeman J., Holmes C., Nanda N., Real-Time Detection of Hallucinated Entities in Long-Form Generation, arXiv preprint, 2025, https://arxiv.org/abs/2509.03531
(3) Weber-Wulff D. et al., Testing of detection tools for AI-generated text, International Journal for Educational Integrity, 2023. https://link.springer.com/article/10.1007/s40979-023-00146-z.
(4) Bellini V., Semeraro F., Montomoli J., Cascella M., Bignami E., Between human and AI: assessing the reliability of AI text detection tools, Current Medical Research and Opinion, 40(3), 2024, pp. 353-358. https://www.tandfonline.com/doi/full/10.1080/03007995.2024.2310086
(5) GPT Detectors Are Biased Against Non-Native English Writers. Sintesi divulgativa Stanford:
(6) GenAI Detection Tools, Adversarial Techniques and Implications for Inclusivity in Higher Education. https://arxiv.org/abs/2403.19148
(7) CNBC, Mata v. Avianca (2023), United States District Court for the Southern District of New York.
(8) Ambiente Diritto, Tribunale Ordinario di Firenze Sez. Imprese, 14 marzo 2025 Ordinanza RG 11053/2024. https://www.ambientediritto.it/giurisprudenza/tribunale-ordinario-di-firenze-sez-imprese-14-03-2025-ordinanza-rg-11053-2024/
(9) GiuriCivile, Tribunale di Torino, Sezione Lavoro, sentenza n. 2120 del 16 settembre 2025. https://giuricivile.it/ricorso-redatto-col-supporto-dellia-contenente-citazioni-inconferenti-e-responsabilita-aggravata/
(10) DirittiFondamentali.it, T.A.R. Milano – Lombardia, Sez. V, sentenza 21 ottobre 2025, n. 3348. https://dirittifondamentali.it/wp-content/uploads/2025/11/T.A.R.-Milano-Lombardia-n.-3348_2025.pdf












