Intelligenza artificiale

L’informazione “sintetizzata” dall’AI è un pericolo? No, ma servono norme e cultura



Indirizzo copiato

L’evoluzione e l’impatto dei Large Language Models esigono un bilanciamento tra libertà di espressione e sicurezza. Sono senz’altro necessari nuovi modelli normativi ma è fondamentale anche il ruolo della cultura per frenare i rischi di disinformazione e manipolazione

Pubblicato il 20 dic 2023

Gianluca Fasano

Technologist Director, CNR- Institute of Cognitive Sciences and Technologies



Programma nazionale intelligenza artificiale

I large language models, con la loro capacità di generare testo coerente e plausibile su una vasta gamma di argomenti possono essere strumenti potentissimi per il progresso della comunicazione e dell’informazione, ma rischiano anche di diventare veicoli di disinformazione e manipolazione.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x