neutralità algoritmica

La “Costituzione” di Claude non è neutrale. E Anthropic lo sa



Indirizzo copiato

Anthropic ambisce a costruire un’intelligenza artificiale eticamente neutrale, ma la Costituzione di Claude incorpora valori specifici della cultura tech della Silicon Valley. La critica filosofica di Charles Taylor aiuta a smontare questa pretesa di imparzialità algoritmica globale

Pubblicato il 2 mar 2026

Giuseppe Aceto

AI & Robotics Ethicist



la costituzione di claude

La neutralità algoritmica è diventata uno degli assiomi più potenti — e meno esaminati — del dibattito sull’intelligenza artificiale. Eppure, dietro ogni sistema che promette di valutare il mondo senza distorsioni, si nasconde sempre la domanda che nessun algoritmo può evitare: neutrale rispetto a chi, e deciso da chi?

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x