Nist – OpenAI e Anthropic

Sicurezza dell’AI, storico accordo col Governo Usa: l’UE prenda esempio



Indirizzo copiato

L’accordo tra l’Istituto statunitense per la sicurezza della AI con Anthropic e OpenAI è molto importante. E si sposa con una legge in arrivo in California. Obiettivo: sostenere – con i principi di safety e affidabilità – la fiducia di cittadini e imprese nell’AI, garantendone lo sviluppo. L’approccio dell’Europa invece è troppo centrato su etica

Pubblicato il 2 set 2024

Franco Pizzetti

professore emerito in diritto costituzionale, Università di Torino, ex Garante Privacy



openai anduril bias nell'ia IA e lavoro: sostituzione o collaborazione? scheming ai

L’Istituto statunitense per la sicurezza dell’Intelligenza Artificiale del Dipartimento del Commercio degli Stati Uniti (U.S. Artificial Intelligence Safety Institute), che opera presso il National Institute of Standards and Technology (NIST), ha annunciato di aver stipulato accordi con OpenAI e Anthropic per collaborare alla ricerca, alla sperimentazione e alla valutazione della sicurezza della AI prima e dopo che le relative società operino il rilascio pubblico dei nuovi modelli, messi a punto da ciascuna società.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x