L’Istituto statunitense per la sicurezza dell’Intelligenza Artificiale del Dipartimento del Commercio degli Stati Uniti (U.S. Artificial Intelligence Safety Institute), che opera presso il National Institute of Standards and Technology (NIST), ha annunciato di aver stipulato accordi con OpenAI e Anthropic per collaborare alla ricerca, alla sperimentazione e alla valutazione della sicurezza della AI prima e dopo che le relative società operino il rilascio pubblico dei nuovi modelli, messi a punto da ciascuna società.
Nist – OpenAI e Anthropic
Sicurezza dell’AI, storico accordo col Governo Usa: l’UE prenda esempio
L’accordo tra l’Istituto statunitense per la sicurezza della AI con Anthropic e OpenAI è molto importante. E si sposa con una legge in arrivo in California. Obiettivo: sostenere – con i principi di safety e affidabilità – la fiducia di cittadini e imprese nell’AI, garantendone lo sviluppo. L’approccio dell’Europa invece è troppo centrato su etica
professore emerito in diritto costituzionale, Università di Torino, ex Garante Privacy

Continua a leggere questo articolo
Argomenti
Canali
EU Stories - La coesione innova l'Italia