I large language models, con la loro capacità di generare testo coerente e plausibile su una vasta gamma di argomenti possono essere strumenti potentissimi per il progresso della comunicazione e dell’informazione, ma rischiano anche di diventare veicoli di disinformazione e manipolazione.
Intelligenza artificiale
L’informazione “sintetizzata” dall’AI è un pericolo? No, ma servono norme e cultura
L’evoluzione e l’impatto dei Large Language Models esigono un bilanciamento tra libertà di espressione e sicurezza. Sono senz’altro necessari nuovi modelli normativi ma è fondamentale anche il ruolo della cultura per frenare i rischi di disinformazione e manipolazione
Technologist Director, CNR- Institute of Cognitive Sciences and Technologies

Continua a leggere questo articolo
Argomenti
Canali
InnovAttori
-

Come l’AI porta il caffè sulle nostre tavole al tempo della guerra
13 Mar 2026 -

Smart home, l’AI accelera la transizione green: ma occhio alla sicurezza
02 Mar 2026 -

Robotica avanzata: la strategia italiana per competere con Cina e Usa
24 Feb 2026 -

Industria metalmeccanica, se il consulente è la GenAI: il caso Co.Me.T
24 Feb 2026 -

L’AI cambia la fabbrica: ecco i trend più avanzati
23 Feb 2026









