intelligenza artificiale

Rischi dei chatbot terapeutici: cosa dicono le nuove norme nel mondo



Indirizzo copiato

Diversi paesi introducono norme per regolamentare i chatbot terapeutici. L’Illinois vieta l’uso senza supervisione, mentre Europa e Cina adottano approcci diversi. La discussione coinvolge rischi clinici, dipendenza emotiva e responsabilità

Pubblicato il 18 dic 2025

Alessandro Longo

Direttore agendadigitale.eu

Tania Orrù

Privacy Officer e Consulente Privacy Tuv Italia



chatbot terapeutici chatbot e induzione al suicidio

I chatbot terapeutici stanno diventando una realtà quotidiana per milioni di persone, soprattutto giovani, che cercano supporto emotivo immediato e accessibile.

Mentre la tecnologia avanza rapidamente, legislatori e istituzioni sanitarie di tutto il mondo corrono ai ripari per regolamentare un fenomeno che incide profondamente sulla salute mentale. Gli Stati Uniti hanno preso una posizione netta, ma non sono soli: si sta definendo un nuovo paradigma globale.

L’Illinois apre la strada: il primo divieto sui chatbot terapeutici

Gli Stati Uniti hanno deciso di prendere sul serio un fenomeno che, fino a poco tempo fa, veniva liquidato come un esperimento marginale: l’uso dei chatbot come sostituti, o almeno come surrogati informali, di supporto psicologico.

Il caso che più ha attirato l’attenzione internazionale è quello dell’Illinois, che qualche mese fa ha approvato il Wellness and Oversight for Psychological Resources Act (WOPR Act). Nel comunicato ufficiale del Dipartimento di Regolamentazione Finanziaria e Professionale dello Stato si legge una frase che sintetizza bene la filosofia del provvedimento: “nessuna tecnologia può fornire comunicazione terapeutica senza la supervisione di un professionista autorizzato“. Non si parla quindi soltanto di diagnosi o prescrizioni, ma di “therapeutic communication“, una definizione volutamente ampia che include consigli emotivi, sostegno morale, orientamento psicologico di base: tutto ciò che, nella percezione dell’utente, può funzionare come terapia.

Alcune testate hanno definito la legge come il “primo divieto totale” di questo tipo negli Stati Uniti. Il Washington Post ha commentato l’iniziativa legislativa raccontando l’emergere di un nuovo tipo di vulnerabilità adolescenziale: ragazzi che conversano per ore con chatbot emotivi, convinti di ricevere un ascolto empatico, senza alcuna garanzia di qualità, sicurezza o capacità di gestire situazioni critiche.

Secondo alcune analisi, negli Stati Uniti si sta consolidando in proposito un vero e proprio movimento regolatorio: alcuni Stati (come appunto l’Illinois) hanno già introdotto norme specifiche sull’impiego dell’AI nella salute mentale, mentre altri stanno discutendo possibili restrizioni, segno di una crescente attenzione verso chatbot che sempre più spesso vengono usati come se fossero terapeuti. È un movimento legislativo straordinariamente rapido, che rivela un chiaro cambio di percezione: ciò che fino a ieri poteva apparire come una “conversazione con un algoritmo” sta diventando, nella pratica quotidiana, qualcosa di molto più vicino a un gesto terapeutico.

La direzione è quindi piuttosto precisa: gli Stati Uniti stanno riconoscendo che la terapia automatica, non si esaurisce nel gesto tecnologico, poiché è un atto che incide sulla salute delle persone.

Cinque milioni di giovani americani affidano le loro emozioni all’intelligenza artificiale

La reazione legislativa statunitense è il diretto risultato di un dato scientifico molto semplice e allo stesso tempo drammatico: l’intelligenza artificiale è già diventata un interlocutore emotivo stabile per milioni di giovani.

Un recentissimo studio di JAMA Network Open (“Use of Generative AI for Mental Health Advice Among US Adolescents and Young Adults”), destinato probabilmente a rimanere come pietra miliare nella comprensione del fenomeno, non lascia spazio a interpretazioni accomodanti. Il 13,1% degli adolescenti e giovani adulti statunitensi tra i 12-21 anni (cioè circa 5,4 milioni di giovani) ha già chiesto consigli all’IA generativa per ansia, rabbia o tristezza. Tra i 18 e i 21 anni, la quota sale al 22,2%. Tra coloro che l’hanno usata, il 65,5% lo fa almeno una volta al mese e il 92,7% ha trovato i consigli “parzialmente o molto utili”.

Il dato più inquietante, però, va oltre i numeri e riguarda la motivazione. Questi giovani si rivolgono all’IA non tanto per pura curiosità tecnologica, quanto perché il sistema umano non riesce a rispondere alle loro necessità. Alcuni psichiatri lo hanno spiegato con lucidità, sostenendo che l’IA “non è un’alternativa, è un sostituto di necessità” e ricordando che il 40% degli adolescenti depressi in USA non riceve alcuna forma di cura. L’IA diventa così il primo soccorso emotivo, un sostituto della struttura psicologica mancante, il luogo dove i giovani e i più fragili (ma non solo) trovano immediata disponibilità, totale riservatezza e nessuna barriera economica.

È in questo squilibrio, tra un bisogno crescente e un’offerta insufficiente, che si inserisce la spinta normativa. Il vero problema sul piatto è il fatto che l’IA sia diventata la sola risposta possibile per un numero crescente di persone.

Stati Uniti: tre modelli normativi a confronto tra divieti e vigilanza clinica

Ciò che rende particolarmente interessante la situazione statunitense è la struttura federale del sistema: non esistendo una legge nazionale sull’intelligenza artificiale, ogni Stato produce la propria risposta. Questo crea una sorta di laboratorio normativo diffuso, dove diversi approcci convivono e si osservano a vicenda.

Secondo gli analisti sarebbe possibile individuare negli USA tre grandi orientamenti emergenti tra i diversi Stati.

Il primo è quello del divieto totale, rappresentato appunto dall’Illinois.

Il secondo è quello regolatorio, in cui rientra New York, uno degli Stati più attivi nel disciplinare gli AI Companions, cioè i chatbot progettati per simulare relazioni affettive. Un’analisi approfondita del National Law Review descrive bene l’impostazione newyorkese: obbligo di comunicare chiaramente all’utente che sta interagendo con una macchina, protocolli specifici per la gestione di situazioni a rischio, e un sistema di responsabilità pensato per evitare che i chatbot possano intervenire in crisi psicologiche senza competenza.

Il terzo orientamento è quello della vigilanza clinica, adottato da Stati come Nevada, Utah e California. Qui si sta sviluppando l’idea che il chatbot terapeutico (o percepito come tale) debba essere trattato come un dispositivo sanitario digitale, soggetto alle regole e ai controlli equivalenti a quelli dei servizi psicologici tradizionali. Secondoalcuni osservatori questa impostazione sarebbe destinata a diventare una delle più influenti, soprattutto per le implicazioni connesse alla responsabilità professionale.

Quello che emerge con chiarezza è che negli Stati Uniti non si sta discutendo se regolamentare, ma come farlo. Anche se l’approccio varia, la conclusione è comunque univoca: la relazione emotiva uomo–IA va trattata come un atto che incide sulla salute mentale.

L’Europa sceglie il rischio come bussola: il ruolo dell’AI Act

Mentre gli Stati Uniti procedono per divieti, autorizzazioni e responsabilità cliniche, l’Europa sceglie una strada concettualmente diversa: una regolamentazione unitaria basata sulla gestione del rischio. Il riferimento normativo è il Regolamento Europeo sull’Intelligenza Artificiale (AI Act – Regolamento UE 2024/1689).

L’AI Act, pur non affrontando direttamente la questione dei chatbot terapeutici, stabilisce un principio fondamentale: qualsiasi sistema di intelligenza artificiale deve essere classificato in base al proprio potenziale impatto sulla sicurezza, sui diritti e sul benessere dell’utente. In questo schema, un chatbot emotivo anche se non è necessariamente “ad alto rischio“, può diventarlo se svolge funzioni che incidono sulla salute mentale o se interagisce con utenti vulnerabili.

È un approccio più prudente e meno prescrittivo rispetto a quello statunitense, ma non per questo meno significativo. Organizzazioni come Mental Health Europe sostengono che sia necessario un intervento più specifico proprio sui chatbot emotivi, perché la simulazione di empatia può generare forme di dipendenza psicologica non previste dalla normativa attuale.

Un’analisi particolarmente illuminante è quella del MIT SERC (“AI Companions & EU Law“). Il report evidenzia come gli AI Companions rischino di creare un vuoto giuridico pericoloso: non sono dispositivi medici, non sono prodotti ricreativi e non sono semplici agenti conversazionali. Sono qualcosa di intermedio e, soprattutto, sono in grado di sviluppare una relazione emotiva profonda con l’utente.

L’Europa, dunque, anziché vietare, classifica, valuta, monitora. La discussione è però solo all’inizio.

Cina: controllo centralizzato e supervisione preventiva su ogni chatbot

Il caso cinese offre un’altra prospettiva ancora. Nel luglio 2023 la Cina ha introdotto le Interim Measures for the Management of Generative AI Services, una regolamentazione non pensata originariamente per la salute mentale, ma che finisce per riguardarla indirettamente. Il modello cinese considera l’IA come un’infrastruttura strategica, da controllare a monte. Non importa che cosa faccia un chatbot, ciò che conta è che sia conforme ai principi di sicurezza, trasparenza e responsabilità previsti dalla normativa generale.

Applicato alla salute mentale, questo significa che nessun chatbot emotivo può operare liberamente senza un controllo regolatorio preventivo. A differenza degli Stati Uniti o dell’Europa, qui non si distingue tra uso terapeutico e uso ordinario, in quanto tutto è soggetto a licenza, revisione e possibile censura. È un approccio radicale, non esportabile nei contesti democratici occidentali, ma senza dubbio molto efficace nel limitare l’emergere di servizi psicologici digitali privi di supervisione.

Dal Sud del mondo a Singapore: un panorama normativo frammentato

In molti paesi il tema dell’uso dell’intelligenza artificiale nella salute mentale (in particolare i chatbot terapeutici e i sistemi di supporto emotivo) sta cominciando a far emergere riflessioni normative, sebbene con velocità e ambiti molto variabili. In questo contesto, il World Health Organization ha recentemente pubblicato delle linee guida che indicano sei “aree chiave” per la regolamentazione dell’IA in sanità a livello globale (cioè: trasparenza, gestione del rischio, validazione clinica, qualità dei dati, tutela della privacy e supervisione/coinvolgimento degli stakeholder), e ha segnalato che molti Stati non dispongono ancora di un quadro normativo adeguato.

Uno studio comparato mostra infatti che nei paesi del “Global South” circa il 60% non ha ancora regolamentazioni specifiche per l’IA in sanità, contro circa il 18% nei paesi del “Global North“.

Un’altra analisi a livello globale, evidenzia inoltre che, nel contesto asiatico-pacifico, Paesi come Singapore e Australia stanno sviluppando politiche avanzate sull’IA applicata alla salute e hanno già introdotto modelli avanzati con supervisione clinica obbligatoria e limiti chiari all’uso dei chatbot. Canada e Brasile stanno definendo quadri normativi nazionali che includono trasparenza, audit e responsabilità professionale; India e Sudafrica prevedono linee guida e requisiti di controllo umano per evitare utilizzi impropri. Nel resto dell’Africa e in gran parte dell’America Latina la regolamentazione è invece ancora agli inizi, rendendo evidente il divario globale nella governance dell’IA per la sanità.

Questo panorama evidenzia come l’innovazione tecnologica nel settore della salute mentale non trovi un contesto normativo uniforme: da un lato Paesi con guida chiara e iniziative regolamentari (anche se non sempre specifiche sui chatbot terapeutici), dall’altro Paesi dove l’adozione corre più rapidamente della capacità dei legislatori di intervenire. Nonostante le differenze, emerge comunque un punto comune: quasi nessun Paese permette ai chatbot di assumere funzioni cliniche autonome, e la responsabilità terapeutica (soprattutto nelle situazioni di crisi) resta ovunque saldamente in capo agli esseri umani.

Sembra evidente che la presenza di strumenti come i chatbot terapeutici pone una sfida transnazionale che richiede cooperazione regolatoria e armonizzazione, sia a livello statale che intergovernativo.

Trattati internazionali e allarmi globali: verso un coordinamento sovranazionale

Oltre agli Stati, anche le organizzazioni sovranazionali si muovono.

Nel 2024 il Council of Europe ha approvato il primo trattato internazionale sull’intelligenza artificiale. Il trattato, pur non affrontando direttamente i chatbot terapeutici, introduce alcuni principi fondamentali, quali la supervisione umana, la tutela dei vulnerabili, la trasparenza degli algoritmi. Getta pertanto le basi che potrebbero un giorno regolare anche l’IA emotiva.

Sempre a livello internazionale, il G7 Hiroshima AI Process (cioè il processo multilaterale sul governo dell’intelligenza artificiale avviato appunto nella riunione dei leader del G7 di Hiroshima 2023, portato avanti negli anni successivi) sta lavorando a standard comuni per i modelli di IA ad alto impatto, inclusi quelli che possono essere utilizzati in ambito sanitario.

Il CIGI – Centre for International Governance Innovation, un think tank indipendente canadese, ha pubblicato un’analisi molto critica che parla apertamente e senza mezzi termini di “urgenza globale“, evidenziando che i chatbot terapeutici vengono adottati in tutto il mondo con rapidità maggiore rispetto alla capacità dei legislatori di seguirne gli effetti.

Siamo insomma all’inizio di un coordinamento internazionale che potrebbe cambiare profondamente il modo in cui la salute mentale digitale viene concepita.

I pericoli nascosti: dipendenza emotiva, bias e gestione inadeguata delle crisi

Una parte importante della discussione riguarda i rischi clinici legati all’uso prolungato di chatbot terapeutici. L’intelligenza artificiale sa costruire conversazioni coerenti, rassicuranti, in alcuni casi affettive; tuttavia, non ha alcuna comprensione reale dello stato mentale dell’utente. Il rischio principale, evidenziato da diversi studi è che l’utente possa sviluppare una forma di dipendenza emotiva verso un agente che simula empatia senza comprenderla. Alcuni utenti sviluppano infatti connessioni parasociali con chatbot molto avanzati e comportamenti che somigliano a “relazioni tossiche“.

Un altro rischio è quello della gestione delle crisi: un chatbot potrebbe non riconoscere correttamente segnali di ideazione suicidaria, o potrebbe rispondere in modo apparentemente “calmo” ma totalmente inadatto. Nessun algoritmo, per quanto sofisticato, è oggi in grado di assumersi la responsabilità clinica in situazioni di emergenza psicologica.

Infine, c’è il tema dei bias: gli studi dimostrano che i chatbot possono replicare e amplificare stereotipi culturali, penalizzando gruppi minoritari. Lo studio JAMA lo ha mostrato chiaramente: gli adolescenti neri considerano l’IA significativamente meno utile rispetto ai coetanei bianchi, segnale del fatto che la tecnologia non è neutrale.

Chi risponde quando l’algoritmo sbaglia? La responsabilità al centro del dibattito

I legislatori statunitensi introducono divieti e norme cliniche; l’Europa sviluppa una regolamentazione più orizzontale e basata sul rischio; la Cina controlla l’IA come infrastruttura strategica. Tuttavia, resta l’interrogativo su chi si debba assumersi la responsabilità quando un chatbot terapeutico sbaglia.

Non possiamo più fingere che un chatbot che ascolta, consola, suggerisce comportamenti o commenta stati d’animo sia soltanto un prodotto tecnologico. È il punto d’incrocio tra psicologia, tecnologia e salute pubblica. E questo punto d’incrocio non è neutro perché genera effetti emotivi veri, talvolta profondi.

L’intelligenza artificiale non sta “sostituendo gli psicologi”, piuttosto sta occupando il vuoto lasciato da un sistema che non riesce a rispondere.

Finché quel vuoto esisterà, le persone in difficoltà (soggetti fragili, giovani, adolescenti) continueranno a parlare con l’IA come se fosse un terapeuta.

La differenza (e il senso delle nuove leggi) sta nel decidere se potranno farlo senza regole, o se la società ritiene che la salute mentale sia un ambito in cui la libertà totale della tecnologia non può essere considerata accettabile.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x