L’uso di immagini sintetiche generate dall’intelligenza artificiale nella comunicazione umanitaria impone una riflessione sul confine tra verità e finzione. Le tecnologie generative trasformano la rappresentazione della povertà, costringendo il diritto a interrogarsi su dignità, trasparenza e tutela della fiducia pubblica.
Indice degli argomenti
Dalla fotografia testimonianza all’immagine algoritmica
Sempre più spesso, infatti, le campagne di sensibilizzazione o di raccolta fondi utilizzano immagini create interamente da algoritmi, che ritraggono con apparente realismo bambini affamati, famiglie in fuga, madri disperate. Non sono persone vere, ma figure verosimili, costruite per evocare empatia.

Le immagini di povertà fatte con AI si trovano sui siti stock
Questa sostituzione dell’immagine reale con quella artificiale solleva domande che il diritto non può eludere. La questione non è soltanto estetica o etica: riguarda il nucleo stesso della dignità umana, il principio di veridicità dell’informazione e la responsabilità di chi comunica. Se l’immagine è oggi il linguaggio attraverso cui la sofferenza viene resa visibile, la sua manipolazione o la sua invenzione rischiano di trasformare la vulnerabilità in un oggetto estetico, funzionale a suscitare consenso o compassione. E con ciò si apre una tensione profonda tra finalità solidale e rispetto della persona, anche quando la persona non esiste realmente.
Quando la povertà diventa icona sintetica
Per oltre un secolo la fotografia umanitaria ha incarnato l’idea di testimonianza. Ogni scatto era il frutto di un incontro reale, di uno sguardo rivolto verso l’altro. Le immagini delle guerre, delle carestie, dei terremoti avevano un valore probatorio, oltre che emotivo: documentavano un fatto, un luogo, una vita. Oggi, invece, un software è in grado di generare, in pochi istanti, volti e corpi che sembrano autentici, ambienti che paiono fotografati sul campo, luci e ombre che imitano la casualità dell’occhio umano. La povertà diventa così un’icona sintetica, costruita per “funzionare” emotivamente.
Dal punto di vista giuridico, questo passaggio non è neutro. La fotografia tradizionale, pur con i suoi limiti, presuppone un soggetto, un consenso, una responsabilità autoriale. L’immagine generata, invece, dissolve ogni riferimento concreto. Non c’è un diritto all’immagine da tutelare, ma resta intatto – e forse più urgente – il dovere di rispettare la dignità che quell’immagine pretende di evocare. In altri termini, la dignità non scompare con l’assenza del soggetto reale: sopravvive come principio, come vincolo a non ridurre la vulnerabilità umana a spettacolo o metafora estetica.
Vi è, inoltre, un rischio di riproduzione di stereotipi. Gli algoritmi generativi, allenati su immense banche dati visive, tendono a reiterare i modelli dominanti: il povero con la pelle scura, il villaggio polveroso, il bambino dagli occhi imploranti. La macchina, inconsapevole, replica i bias culturali che le sono stati forniti. Il risultato è una povertà standardizzata, decontestualizzata e quasi ornamentale. In questa ripetizione, l’immagine perde il suo potere di denuncia e diventa puro strumento retorico. È su questo terreno che la riflessione giuridica deve intervenire, interrogando la relazione fra rappresentazione, stereotipo e discriminazione.
Dignità e trasparenza: i limiti del diritto nella rappresentazione
L’articolo 1 della Carta dei diritti fondamentali dell’Unione europea proclama la dignità umana come intangibile. Tale principio, lungi dall’essere solo un enunciato morale, impone che ogni comunicazione che tocchi la sfera dell’umano vulnerabile sia improntata a verità, proporzionalità e rispetto. La rappresentazione artificiale della sofferenza – anche se priva di un referente reale – può violare indirettamente tale principio, perché trasforma la dignità in un effetto visivo da evocare, non in un valore da proteggere.
Il diritto positivo offre alcuni strumenti, ma nessuno pienamente adeguato. Le norme sulla pubblicità ingannevole e sulla comunicazione al pubblico impongono trasparenza e veridicità, ma sono pensate per l’ambito commerciale. È evidente, tuttavia, che la stessa logica debba valere anche per le campagne di solidarietà: un’immagine che appare reale ma non lo è può ingannare il pubblico, alterare la percezione della realtà e falsare il rapporto fiduciario tra cittadino e organizzazione. Il requisito della trasparenza, in questo senso, deve diventare un obbligo generale: ogni immagine generata da intelligenza artificiale dovrebbe essere chiaramente riconoscibile come tale.
La questione non è solo tecnica, ma sostanziale. Un’informazione può essere ingannevole anche quando è formalmente vera, se induce il destinatario a un errore sostanziale sul significato o sull’origine del messaggio. Così, l’immagine di un “bambino profugo” creato digitalmente non viola un diritto individuale, ma altera la percezione collettiva del dolore. Si tratta di un inganno morale, che tocca la fiducia pubblica. Il diritto, per sua natura, tutela la fiducia: senza fiducia nella veridicità delle rappresentazioni, l’intero discorso pubblico si indebolisce.
La catena delle responsabilità nella comunicazione generativa
Il fenomeno delle immagini sintetiche mette in luce una filiera complessa di attori e di responsabilità. Le organizzazioni umanitarie che scelgono di utilizzare contenuti generativi devono rispettare un dovere di diligenza qualificata. Non basta invocare la buona fede o la finalità benefica: occorre verificare la provenienza delle immagini, la loro natura artificiale, l’assenza di contenuti discriminatori o stereotipati. La responsabilità etica e giuridica dell’ente non si esaurisce nella mancanza di vittime identificabili, ma si estende al rispetto della verità e della dignità in senso lato.
Le piattaforme che producono o distribuiscono immagini generate da IA non possono, a loro volta, considerarsi meri intermediari. Quando consentono la commercializzazione o la licenza d’uso di tali contenuti, assumono un ruolo attivo nella costruzione dell’immaginario collettivo. La corretta etichettatura dei materiali, la trasparenza sui processi di generazione e la tracciabilità delle fonti devono costituire requisiti essenziali, pena l’assunzione di corresponsabilità in caso di uso improprio o ingannevole.
Anche i donatori, pubblici e privati, non sono esenti da obblighi. Il principio di buona fede contrattuale impone di verificare che i fondi siano utilizzati in modo conforme alle finalità dichiarate e che la comunicazione non si fondi su artifici fuorvianti. In tal senso, la due diligence etica diventa una dimensione della responsabilità finanziaria. Non si tratta solo di evitare lo scandalo, ma di preservare la legittimità dell’intero settore della cooperazione internazionale, che si regge sulla fiducia del pubblico e sulla credibilità delle sue immagini.
Lacune del diritto e prospettive di regolazione
Il quadro normativo attuale appare frammentario. Le norme sulla protezione dei dati personali si fermano di fronte a un’immagine che non ritrae nessuno. Le regole sulla pubblicità e sull’informazione coprono solo in parte la dimensione umanitaria. Il futuro regolamento europeo sull’intelligenza artificiale si concentra sulla sicurezza e sulla trasparenza dei sistemi, ma non affronta la rappresentazione simbolica della vulnerabilità. In questa lacuna, si annida il rischio che la tecnologia anticipi il diritto, imponendo nuovi paradigmi senza adeguate garanzie.
È necessario pensare a una forma di regolazione multilivello. Sul piano normativo, un obbligo generalizzato di disclosure delle immagini sintetiche appare come il primo passo. Sul piano deontologico, le organizzazioni dovrebbero adottare codici di condotta vincolanti, capaci di integrare principi di verità, dignità e non discriminazione. E, su un livello ancora più ampio, sarebbe auspicabile la nascita di un vero e proprio diritto visivo dell’intelligenza artificiale: un insieme di regole che disciplinino la creazione e la diffusione di contenuti generativi quando incidono sulla rappresentazione dell’umano.
Un tale diritto non deve essere censurante, ma garantista: non volto a reprimere l’innovazione, bensì a orientarla. Come già avviene nel campo della bioetica, anche l’etica dell’immagine necessita di un apparato giuridico che sappia bilanciare libertà creativa e rispetto della dignità. Il punto di equilibrio non è la proibizione, ma la consapevolezza: rendere visibile ciò che è artificiale, riconoscere il confine tra verità e finzione.
La sfida dell’autenticità nell’era delle immagini sintetiche
Le immagini sintetiche della povertà rappresentano un paradosso del nostro tempo. Nascono dal desiderio di proteggere la persona reale, ma finiscono per creare una nuova forma di sfruttamento simbolico. In apparenza eliminano il problema del consenso, ma in realtà ne introducono uno più profondo: quello dell’autenticità. La povertà, quando diventa algoritmo, perde la sua concretezza e diventa narrazione estetica.
Il diritto, in quanto linguaggio della responsabilità, non può sottrarsi a questa sfida. Deve interrogare la verità dell’immagine, non solo la sua liceità. Deve saper leggere dietro la perfezione artificiale dell’icona digitale la possibilità di una menzogna che corrompe il senso stesso della solidarietà. Servirà dunque una nuova alleanza tra diritto, etica e tecnologia, capace di garantire che l’innovazione non si traduca in un’estetica del dolore, ma resti strumento di conoscenza, rispetto e giustizia.
Solo così l’immagine, anche quando non è reale, potrà continuare a essere autenticamente umana.











