L’intelligenza artificiale sta ridefinendo la percezione contemporanea della bellezza, trasformandola da esperienza umana soggettiva a fenomeno computazionale capace di essere previsto, modellato e ottimizzato.
Attraverso neuroscienze estetiche, studi sperimentali e casi reali, questo articolo evidenzia come i modelli generativi riescano non solo a replicare i codici visivi, musicali ed emotivi dell’arte umana, ma anche a produrre contenuti percepiti come più intensi, affidabili ed esteticamente gradevoli rispetto alle opere reali.
Questa nuova “estetica algoritmica”, costruita su pattern, feedback comportamentali e ottimizzazione dell’engagement, introduce rischi inediti di manipolazione emozionale, rendendo sempre più sottile il confine tra suggestione e inganno digitale. Se da un lato l’AI appare favorita nel definire ciò che oggi consideriamo “bello”, dall’altro nell’articolo si sottolinea come la capacità di immaginare e creare i paradigmi estetici del futuro rimanga ad oggi un’esclusiva umana: l’AI segue e amplifica il gusto esistente, ma non lo trascende.
In conclusione, la bellezza emerge come uno spazio di co-evoluzione uomo-macchina, che richiede una nuova alfabetizzazione estetica digitale per preservare l’autonomia emotiva in un mondo in cui gli algoritmi influenzano, amplificano e talvolta anticipano i nostri criteri estetici.
Indice degli argomenti
Intelligenza artificiale e bellezza come nuovo terreno di manipolazione
Introduzione – La Bellezza come Nuovo Ambito di Manipolazione
Cosa vuol dire “bello”? Qual è il significato che oggi attribuiamo alla parola “bellezza”? La risposta sembrerebbe abbastanza scontata e ovvia, soprattutto con riferimento al passato: la bellezza infatti per molti secoli è stata associata a un’esperienza umana, soggettiva, spesso quasi inafferrabile. Nel corso del tempo questo concetto si è evoluto, sotto diverse prospettive, e più recentemente ci stiamo avvicinando a una soglia inedita, che traguarda una vista più tecnologica: la bellezza può essere progettata, ottimizzata, addirittura ingegnerizzata.
Con riferimento agli algoritmi di intelligenza artificiale – che vengono allenati su miliardi di immagini, reazioni umane, emotive e segnali comportamentali – ne consegue che è possibile generare opere che, per molti osservatori, risultano più “emozionanti” di molte produzioni artistiche umane. Sì, proprio così, e sembra quasi paradossale, ma non solo: comprendendo e imparando dai gusti estetici del pubblico, questi sistemi possono predire e anticipare le nostre preferenze prima ancora che noi stessi ne abbiamo una consapevolezza.
Ci troviamo quindi di fronte a un cambio di paradigma senza precedenti e, laddove si parla di AI, ormai questo non rappresenta quasi più una novità. In pratica non siamo più soltanto noi a decidere cosa è bello. Sempre più spesso infatti lasciamo che a farlo siano reti neurali che analizzano le nostre reazioni, un clic, lo scrolling di una pagina, il tempo medio di fruizione di un’opera, con un livello di dettaglio e precisione praticamente impossibile per un essere umano.
Si apre così un interrogativo molto ampio e affascinante che passa attraverso arte, etica e psicologia cognitiva, sotto l’influsso della tecnologia, dove la domanda è: stiamo entrando nell’era del cosiddetto “inganno digitale”? E se sì, fino a che punto la percezione estetica può essere “guidata” fino a diventare una forma di manipolazione?
Dalle neuroscienze estetiche agli algoritmi che collegano intelligenza artificiale e bellezza
Dall’estetica alla percezione della bellezza guidata dagli algoritmi, cosa ci dice la letteratura scientifica
L’emergere dei sistemi di intelligenza artificiale, capaci di generare immagini, video, musica e testi esteticamente convincenti, sta ridefinendo in profondità non solo i processi creativi, ma anche la natura stessa dell’esperienza estetica. Il fatto stesso che algoritmi addestrati su enormi dataset, visivi piuttosto che sonori o anche testuali, riescano a generare contenuti in grado di suscitare emozioni paragonabili, e talvolta in misura addirittura superiore, a quelle evocate dalle opere umane pone una questione fondamentale: la bellezza è ancora un “patrimonio” umano esclusivo oppure sta diventando sempre più anche un fenomeno computazionale?
Questa domanda, e quindi una trasformazione di tale portata, può essere compresa facendo una riflessione a partire dall’analisi delle basi delle neuroscienze estetiche, una disciplina che ha mostrato nel corso del tempo come la percezione della bellezza sia il risultato di complessi processi cognitivi ed emotivi, che interagiscono tra loro.
Neuroscienze estetiche: come il cervello elabora la bellezza
Secondo Chatterjee (2014), l’esperienza estetica emerge da un intreccio di valutazioni percettive, emozionali e decisionali che coinvolgono reti neurali specifiche, tra cui il circuito limbico e le aree corticali adibite al giudizio e alla ricompensa. La bellezza però non è solo un’esperienza profondamente soggettiva: questa idea viene messa in discussione da studi più recenti che mostrano una certa convergenza inter-individuale nei giudizi estetici.
Ad esempio, gli studi di Vessel et al. (2019) hanno evidenziato che l’apprezzamento estetico attiva il default-mode network, un sistema cerebrale che integra stimoli esterni con la dimensione personale e autobiografica dell’individuo. Ciò suggerisce che la “soggettività estetica” non è arbitraria, ma segue pattern riconoscibili.
Dall’aesthetic computing ai modelli generativi creativi
Proprio l’esistenza di questi pattern è ciò che le AI moderne utilizzano e sfruttano per la generazione di contenuti. Molti modelli generativi fanno leva su reti neurali profonde addestrate su milioni di immagini, opere d’arte e feedback estetici umani, riuscendo così a identificare correlazioni statistiche tra caratteristiche visive (simmetria, contrasto, texture) e giudizi di qualità.
Già dagli anni Duemila i primi sistemi di “aesthetic computing” hanno dimostrato che il gusto può essere modellizzato: Datta et al. (2006) e successivamente Marchesotti et al. (2011) hanno sviluppato una serie di algoritmi capaci di prevedere la qualità estetica delle fotografie con performance sorprendenti, vicine a quelle umane. L’AI, insomma, ha iniziato a “imparare” cosa consideriamo bello prima ancora di saper generare bellezza.
Dopo questo primo passo, il successivo è stato quello di indagare la creatività computazionale: sappiamo tutti che i modelli generativi attuali infatti non si limitano a valutare, ma producono. Grazie ai Creative Adversarial Networks, come riportato negli studi di Elgammal et al. (2017), è stato dimostrato che un algoritmo può apprendere non solo stili artistici canonici, ma anche le deviazioni stilistiche che caratterizzano l’evoluzione storica dell’arte.
L’AI quindi non si limita solo a replicare, ma può creare varianti e nuove combinazioni, detto in altri termini sperimenta. Secondo Hertzmann (2018) questo non è strettamente equivalente a quello che normalmente intendiamo con “creazione artistica” nel senso umano del termine, piuttosto riguarda la produzione di oggetti visivi capaci di generare un impatto estetico reale sull’osservatore.
La sintesi che ne consegue da questo scenario ci pone davanti a un primo interrogativo piuttosto forte che riguarda non tanto il fatto se un algoritmo possa “provare” emozioni, ma in che modo e in che misura le possa stimolare negli esseri umani con la stessa o una maggiore efficacia rispetto a quello che sarebbe in grado di fare un artista.
Secondo gli studi più recenti di psicologia sperimentale, come quelli di Fan et al. (2023), si inizia a mostrare come le opere visuali generate da AI possano evocare risposte emotive intense e comparabili a quelle generate dalle opere che troviamo nei musei o che vengono prodotte da artisti contemporanei. Ancora più significativo è il risultato di Nightingale e Farid (2022): tutto quello che abbraccia il filone della GAN Art e, in particolare, i prodotti della creatività digitale risultano non solo indistinguibili da quelli reali, ma percepiti come più affidabili e più piacevoli esteticamente.
L’AI non solo imita la realtà: produce realtà estetica “migliorata” per adattarsi meglio a quelli che possono essere i nostri bias cognitivi ed emotivi.
Quando la soggettività estetica diventa un parametro ottimizzabile
E qui si innesta una questione piuttosto cruciale da un punto di vista etico: se gli algoritmi, una volta addestrati, sono in grado di interpretare e comprendere le nostre preferenze estetiche meglio di quanto riusciamo a esplicitare noi, si apre una nuova forma di manipolazione emozionale mediata da tecnologia, analoga alla “algorithmic governance” descritta da Kitchin (2017) e ai processi di “deskilling morale” discussi da Vallor (2015).
Gli algoritmi a questo punto possono influenzare non solo ciò che vediamo, ma anche come ci sentiamo rispetto a ciò che vediamo. E, come osserva Crawford (2021), lo fanno attraverso processi “opachi” e “industriali”, radicati in infrastrutture globali e modelli predittivi che operano al di fuori della nostra consapevolezza.
Il risultato è che la definizione stessa di autenticità estetica diventa sfuggente. Viene quindi naturale chiedersi, ad esempio: se una composizione musicale generata da AI commuove più di una composizione originale, risulta essere meno autentica? Se un volto sintetico ci appare più credibile di uno reale, chi e cosa sta guidando i nostri criteri estetici?
La crescente difficoltà nel distinguere tra reale e artificiale, documentata da Miranda et al. (2023), contribuisce a un progressivo assottigliamento della distinzione tra esperienza genuina ed esperienza “progettata”, con il fine di massimizzare il coinvolgimento.
In questo contesto, la domanda centrale di questo articolo trova una collocazione teorica precisa: stiamo ancora decidendo cosa consideriamo bello, o stiamo delegando la definizione della bellezza a sistemi capaci di anticipare e modellare le nostre reazioni estetiche? La soggettività, tradizionalmente intesa come il nucleo dell’esperienza estetica, rischia di diventare un parametro “ottimizzabile”, una variabile prevedibile all’interno di un sistema di calcolo.
La bellezza, da qualità emergente grazie all’interazione tra umano e mondo, si trasforma in un prodotto calcolabile, misurabile e manipolabile.
Può l’AI emozionare più dell’arte tradizionale?
Siamo ancora noi a decidere cosa è bello? Può l’AI emozionare più dell’arte tradizionale? È un dato oggettivo: sempre più individui trovano che le immagini generate da AI siano “più intense”, migliori e quindi più belle delle fotografie reali.
Non si tratta tanto di un tema di preferenza tra una “falsità” e una “realtà”, ma dell’effetto di sistemi capaci di combinare migliaia di pattern estetici appresi. Questo avviene perché i modelli generativi, dalle diffusion models alle GAN, operano attraverso un principio di massimizzazione dell’impatto percepito.
Le ricerche più recenti (Nightingale & Farid, 2022; Miranda et al., 2023) mostrano che i volti sintetici prodotti da GAN sono giudicati dagli osservatori più affidabili dei volti reali. Non più “tanto realistici da sembrare veri”, ma più convincenti della realtà stessa.
Allo stesso modo, studi come quello di Fan et al. (2023) evidenziano che opere artistiche generate da AI susciteranno reazioni emotive allineate a quelle prodotte da opere umane, anzi talvolta più intense. L’estetica algoritmica non si limita a generare contenuti, è in grado di misurare la nostra risposta.
Come abbiamo già descritto in precedenza, ogni micro-azione digitale diventa un dato per l’ottimizzazione estetica, dal tempo di sosta del mouse su un contenuto specifico, al tempo passato a guardare un’immagine, fino alla decisione di salvare o condividere un determinato contenuto.
Tutti questi segnali, sommati a miliardi di campioni globali, permettono alle piattaforme di comprendere quali sono le configurazioni visive che massimizzano l’engagement del pubblico destinatario. Il risultato è un’estetica personalizzata che influenza ciò che ci appare, ciò che ci piace e persino ciò che desideriamo.
Le piattaforme modellano così un nuovo canone estetico: non più quello delle avanguardie artistiche, ma quello della massima reazione emotiva misurabile.
Dall’estetica personalizzata al gusto di massa
Viene dunque da chiedersi se, così facendo, il concetto di bello legato appunto a un canone che tipicamente è soggettivo non corra il rischio di sfociare in un gusto “omogeneo”. Detto in altri termini: se quella che in passato era una singola preferenza diventa una preferenza di massa, dal momento che se gli algoritmi apprendono ciò che “funziona”, tenderanno a riproporre ciò che massimizza le reazioni, e dove il bello diventa una funzione di ottimizzazione.
E su questo si potrebbe addirittura aprire un dibattito filosofico che riprende il concetto di bello così come definito da Kant.
Estetica algoritmica e inganno digitale: immagini, volti sintetici e musica
Quando un algoritmo modifica l’immagine per renderla più accattivante, sta facilitando la fruizione estetica o sta orientando il nostro desiderio? Il confine è sicuramente molto labile. Nel settore pubblicitario, ad esempio, l’AI è già in grado di generare migliaia di varianti di un’immagine e testarle in tempo reale per identificare quella che produce le risposte più forti.
Non c’è più un “creativo” che decide come suscitare emozione: è l’algoritmo a condurre l’esperimento, e noi ne siamo i soggetti inconsapevoli. In questa logica, la manipolazione estetica diventa strutturale: ciò che vediamo non è ciò che è “bello”, ma ciò che massimizza la probabilità di spingerci a un’azione (acquisto, click, reazione).
L’inganno digitale non consiste quindi nella falsificazione della realtà, ma nel fatto che il nostro gusto estetico viene guidato senza che ce ne accorgiamo.
Portrait of Edmond de Belamy: quando un algoritmo arriva da Christie’s
L’evoluzione dell’estetica algoritmica si comprende in modo particolarmente chiaro considerando gli effetti ormai visibili nel mondo reale. Un primo episodio emblematico è la vendita, avvenuta nel 2018 presso Christie’s a New York, del Portrait of Edmond de Belamy, un’opera generata tramite reti generative avversarie (GAN) dal collettivo parigino Obvious.
L’opera, realizzata da un algoritmo addestrato su oltre 15.000 ritratti dal XIV al XX secolo, non rappresentava soltanto un nuovo oggetto estetico, ma un nuovo modo di produrlo: una macchina aveva appreso i codici visivi della ritrattistica occidentale, ne aveva ricombinato gli elementi e aveva generato un’immagine dotata di coerenza stilistica, profondità psicologica e un certo alone di mistero tipico del ritratto classico.
Il successo dell’asta – chiusasi a 432.500 dollari, quasi 45 volte la stima iniziale – venne accolto come uno spartiacque. La domanda che ne emerse fu immediata: le persone stavano acquistando un’opera o un algoritmo? Ma, soprattutto, l’intensità della reazione estetica sembrava porre un interrogativo più radicale: una macchina può generare bellezza capace di emozionare quanto quella prodotta da un essere umano?
Volti StyleGAN: la bellezza sintetica più credibile del reale
La risposta sembra essere “sì”, e in alcuni casi “più di sì”. Lo dimostra il secondo caso chiave: lo studio di Nightingale e Farid (2022), in cui i ricercatori hanno confrontato migliaia di volti reali con volti sintetici generati da StyleGAN, il modello sviluppato da NVIDIA.
I risultati hanno sorpreso persino gli autori: non solo i partecipanti non riuscivano a distinguere i volti reali da quelli generati, ma consideravano i volti sintetici più affidabili, più gradevoli e in generale esteticamente preferibili. Ciò significa che l’algoritmo non si limita a imitare l’estetica del volto umano, ma la ottimizza, eliminando imperfezioni, asimmetrie o micro-espressioni che il cervello umano registra come segnali di diffidenza.
In altre parole, l’AI non produce copie del reale: produce versioni del reale migliorate per piacere di più. Qui la questione estetica si intreccia immediatamente con quella etica: se un algoritmo è in grado di generare volti che percepiamo come più autentici del reale, la nostra capacità di riconoscere l’autenticità stessa viene messa in crisi.
La percezione estetica diventa il punto d’accesso alla manipolazione emotiva.
Musica generativa: emozioni su misura create dall’intelligenza artificiale
Analizziamo un terzo caso che permette di mostrare come queste dinamiche si estendano oltre le arti visive fino al campo della musica, una delle forme estetiche più direttamente collegate all’emozione.
Diverse piattaforme e startup, da AIVA a Jukebox di OpenAI, fino agli strumenti integrati nei motori di streaming, utilizzano modelli generativi capaci di comporre musica calibrata sui profili emozionali degli ascoltatori. Questi sistemi analizzano milioni di pattern musicali, metriche biometriche (quando disponibili), preferenze degli utenti e persino variazioni microtemporali nella loro attenzione; quindi generano tracce progettate per massimizzare rilassamento, concentrazione o coinvolgimento emotivo.
In alcuni studi sperimentali (Fan et al., 2023), la musica prodotta da AI è stata valutata come emotivamente più efficace rispetto a quella composta da musicisti professionisti quando utilizzata in contesti specifici, come meditazione, focus lavorativo o accompagnamento visivo.
In tutti e tre i casi emerge una narrativa comune: l’intelligenza artificiale non si limita più a imitare l’estetica umana; la modella, la amplifica e talvolta la supera in efficacia sul piano percettivo ed emotivo.
L’AI intercetta i pattern profondi delle nostre preferenze e li sfrutta per costruire opere che rispondono in modo sempre più preciso ai nostri bias cognitivi. Di fronte a un ritratto generato, un volto sintetico o una musica composta da un modello, ciò che proviamo è reale.
Ma la causa di ciò che proviamo, e persino il modo in cui lo proviamo, viene progressivamente spostata dal dominio dell’intenzionalità umana a quello dell’ottimizzazione algoritmica. Ed è proprio in questo passaggio che si annida l’inganno digitale più sottile: non è l’AI che finge di essere creativa; siamo noi a rischiare di dimenticare che le emozioni che proviamo possono essere previste, ingegnerizzate e calibrate con precisione computazionale.
Produrre bellezza con l’AI: opportunità e limiti per artisti e creativi
Quali nuovi scenari per chi “produce” bellezza
Immaginarsi che la bellezza prescinda dal confronto o dal dialogo con le AI generative non è più possibile. Ecco perché il dibattito fra gli artisti visivi è vivace e articolato.
Un primo ostacolo che ancora separa il mondo della creatività umana da quello dell’AI è offerto, ad esempio, dalla pittura che, nella sua natura materica, sfugge ancora al pieno controllo algoritmico (limitato per lo più a ciò che è digitale: video, immagini, musica e scrittura) e quindi consente un margine di vantaggio all’uomo nella creazione di bellezza, soprattutto se si considera l’astrattismo, la cui estetica ha una componente di soggettività maggiore di quella della pittura figurativa (più facilmente modellabile nella definizione di ciò che sarà percepito come bello dalla media degli osservatori).
Pittura, matericità e vantaggio umano
Consideriamo anche il fatto che una Gen AI qualunque non si metterebbe mai di sua iniziativa a generare bellezza senza i prompt che una guida, più o meno qualificata, le sottopone, almeno fintanto che l’Agentic AI non si affermerà definitivamente.
Perciò, anche se si tratta di algoritmi generativi, esiste sempre un cervello umano che ne prende le briglie e li conduce, correggendo di volta in volta la rotta, verso un risultato estetico che sarà giudicato tale sempre da quel cervello.
Questo restituisce all’intelligenza umana parte dei meriti che quella artificiale si sta conquistando con la sua velocità e le sue capacità predittive in termini di estetica contemporanea. Per come stanno le cose oggi, l’AI altro non è che un nuovo potentissimo strumento nelle mani dell’uomo.
Intelligenza artificiale e bellezza tra passato, presente e futuri possibili
Ma c’è un’altra importante considerazione da fare: per come è costruita oggi, l’AI può generare bellezza, come abbiamo prima descritto, basandosi sui dati del passato (immagini e opere già fatte) e sui gusti del presente (feedback comportamentali degli esseri umani continuamente monitorati), sebbene con una velocità e uno spettro di informazioni a disposizione impossibili da eguagliare in termini di prestazione da parte di un essere umano.
Questo significa che sarà sempre più forte, forse imbattibile, nell’interpretare e generare la bellezza che piace oggi alle masse, restando però un passo indietro rispetto all’evoluzione del gusto estetico, perché le ci vuole tempo per adeguarsi a un cambiamento che, seppur lento, non riesce a condurre, ma solo a seguire, anche se a strettissimo giro.
Il paradosso di Achille e la tartaruga applicato al gusto estetico
Un po’ come nel paradosso di Achille e la tartaruga di Zenone.
Quindi gli scenari sono due: o ci dobbiamo aspettare che la bellezza diventi “finalmente” qualcosa di statico, completamente definibile, perdendo l’inafferrabilità che l’ha caratterizzata fino a oggi (e quindi a decidere il bello sarà sempre più l’AI) oppure, se continuerà a evolvere e ad arricchirsi di nuovi paradigmi, dobbiamo riconoscere che compete all’uomo la capacità di decidere il bello del futuro.
L’artista lo sa fare, l’AI ancora no (non si esclude che il futuro ci riservi nuove sorprese), questo perché l’artista non subisce l’influenza inevitabile del training “opprimente” di miliardi di dati attendibili e si permette di creare opere che oggi possono sembrare poco interessanti o addirittura brutte, ma che in un prossimo futuro potranno essere considerate esteticamente dei capolavori (Van Gogh docet).
Sicuramente l’AI saprà fare altrettanto, forse anche meglio, ma come farebbe uno straordinario allievo in grado di superare gli insegnamenti del maestro, quello stesso maestro che nel frattempo è già un passo avanti e sta creando nuove frontiere di bellezza.
Chi decide davvero la bellezza del futuro?
Sembrerebbe quindi che la domanda iniziale si complichi e si sdoppi: se la “gara” per decidere che cosa sia bello oggi vede l’AI come sempre più favorita, per decidere cosa sarà bello domani, l’uomo non ha rivali diversi da se stesso.
Ma a rigor di logica, se dobbiamo rispondere in modo esatto alla domanda del titolo dell’articolo, onestamente è sempre l’uomo a decidere cosa sia bello, perché, in fin dei conti, pur velocissima a generare bellezza, l’AI lo fa sempre e solo nella direzione indicata dalla moltitudine di micro-decisioni già prese dall’uomo.
Tuttavia l’inganno visivo rimane, ed è emotivamente molto potente, quindi l’AI continuerà a giocare un ruolo sempre più rilevante.
Verso una nuova alfabetizzazione estetica digitale
Conclusioni: l’estetica come spazio di co-evoluzione uomo-macchina
Siamo entrati in un’epoca in cui la bellezza non è più una prerogativa umana. Non perché le macchine “creino arte” nel senso tradizionale, ma perché creano immagini che parlano direttamente ai nostri meccanismi percettivi, con una precisione che nessun artista sembra poter eguagliare.
Non è un destino ineluttabile, ma un ambito da governare. Forse dobbiamo sviluppare una nuova alfabetizzazione estetica digitale, capace di renderci consapevoli del modo in cui gli algoritmi influenzano la nostra sensibilità.
L’estetica non è più solo un campo espressivo: è un terreno più ampio. E nella relazione tra esseri umani e AI, la bellezza potrebbe essere il primo dominio in cui imparare a difendere la nostra autonomia emotiva.
Bibliografia
Vessel, E. A., Isik, A. I., Belfi, A. M., Stahl, J. L., & Starr, G. G. (2019). The default-mode network represents aesthetic appeal that generalizes across visual domains. Proceedings of the National Academy of Sciences, 116(38), 19155–19164.
Chatterjee, A. (2014). The aesthetic brain: How we evolved to desire beauty and enjoy art. Oxford University Press.
Crawford, K. (2021). Atlas of AI: Power, politics, and the planetary costs of artificial intelligence. Yale University Press.
Datta, R., Joshi, D., Li, J., & Wang, J. Z. (2006). Studying aesthetics in photographic images using a computational approach. In A. Leonardis, H. Bischof, & A. Pinz (Eds.), Computer Vision – ECCV 2006: 9th European Conference on Computer Vision, Graz, Austria, May 7–13, 2006. Proceedings (Vol. 3953, pp. 288–301). Springer.
Elgammal, A., Liu, B., Elhoseiny, M., & Mazzone, M. (2017). CAN: Creative Adversarial Networks, Generating “Art” by Learning About Styles and Deviating from Style Norms (arXiv:1706.07068). arXiv.
Fan, L., Jin, H., Wu, Y., & Zhang, J. (2023). Human emotional responses to AI-generated art: A comparative study. Computers in Human Behavior, 143, 107704.
Floridi, L. (2019). The logic of information: A theory of philosophy as conceptual design. Oxford University Press.
Hertzmann, A. (2018). Can computers create art? Arts, 7(2), Article 18.
Kitchin, R. (2017). Thinking critically about and researching algorithms. Information, Communication & Society, 20(1), 14–29.
Koelsch, S., Jacobs, A. M., Menninghaus, W., et al. (2019). Brain correlates of aesthetic experience during music perception. NeuroImage, 193, 135–149.
Marchesotti, L., Perronnin, F., Larlus, D., & Csurka, G. (2011). Assessing the aesthetic quality of photographs using generic image descriptors. In 2011 IEEE International Conference on Computer Vision (ICCV) (pp. 1784–1791). IEEE.
Miranda, M., Bors, A. G., & Mäkinen, E. (2023). Perceptual realism in GAN-generated imagery. Nature Machine Intelligence, 5, 441–451.
Nightingale, S. J., & Farid, H. (2022). AI-synthesized faces are indistinguishable from real faces and more trustworthy. Proceedings of the National Academy of Sciences, 119(8), e2120481119.
Redi, M., O’Hare, N., Schifanella, R., Trevisiol, M., & Jaimes, A. (2015). 6 seconds of sound and vision: the aesthetics of Vines. In Proceedings of the International AAAI Conference on Web and Social Media (ICWSM).
Vallor, S. (2015). Moral deskilling and upskilling in the age of intelligent machines. Ethics and Information Technology, 17(4), 251–261.













