Non serve una sentenza per capire che qualcosa è cambiato. A volte basta un accordo. I settlement raggiunti negli Stati Uniti tra Google, Character.AI e alcune famiglie di minori coinvolti in vicende di gravissima sofferenza psicologica – in alcuni casi culminate nel suicidio – non chiudono una questione giuridica. La aprono. E la aprono in un punto sensibile: quello della responsabilità degli sviluppatori di sistemi di intelligenza artificiale quando l’interazione digitale incide sulla salute mentale, in particolare dei soggetti più vulnerabili.
ai e minori
Chatbot e suicidi, Ghiglia: “la tutela si costruisce nel design, non dopo il danno”
I settlement tra Google, Character.AI e famiglie statunitensi aprono il dibattito sulla responsabilità degli sviluppatori di sistemi AI. Il diritto europeo, attraverso GDPR, AI Act e DSA, prevede responsabilità basate sulla prevedibilità del rischio, non sul danno. Serve un approccio health-by-design
Componente del Garante per la protezione dei dati personali

Continua a leggere questo articolo
Argomenti
Canali
Con o Senza – Galaxy AI per il business

INNOVATTORI
-

Tracciabilità supply chain, come Erp e cloud spingono la competitività
14 Nov 2025 -

Manifattura elettronica, come salvare il settore con la gestione smart degli impianti
31 Ott 2025 -

Cybersecurity nel manifatturiero, perché puntare sulle persone: il ruolo di policy e formazione
01 Ott 2025 -

AI per il lavoro in condizioni estreme, quali tecnologie scegliere
27 Ago 2025 -

Verso una PA cognitiva: ecco le strategie di innovazione per gli enti
14 Ago 2025















