Ma un’azienda di chatbot AI quanto è tenuto ad avvisare le autorità se ravvisa, nelle conversazioni, qualcosa di pericoloso per terzi?
Il tema si porrà sempre di più nei prossimi mesi e la risposta non è per niente scontata.
Secondo quanto riportato dal New York Times e dal Wall Street Journal, l’autrice di una sparatoria avvenuta a Tumbler Ridge, in Canada, aveva intrattenuto nei mesi precedenti un dialogo con ChatGPT con riferimenti alla violenza armata.
OpenAI afferma che rafforzerà le proprie misure di sicurezza dopo che la società non ha segnalato alla polizia l’account ChatGPT del sospettato.
La vicenda trascina al centro del costituzionalismo contemporaneo un interrogativo che fino a pochi anni fa restava periferico: quale statuto giuridico assume la piattaforma conversazionale quando intercetta linguaggi che evocano violenza e deve decidere se attivare una filiera di allerta.
I sistemi interni della piattaforma avevano intercettato quelle conversazioni e disposto la sospensione dell’account, mentre OpenAI, dopo una valutazione interna, aveva ritenuto assente una minaccia imminente tale da giustificare la segnalazione alle autorità.
Dopo la sparatoria, il governo canadese ha aperto un confronto con l’azienda chiedendo protocolli più incisivi e la società ha annunciato una revisione dei meccanismi di escalation verso le forze dell’ordine nei casi di rischio grave.
Indice degli argomenti
Quando scatta la segnalazione alle forze dell’ordine in UE
Nel paradigma liberale europeo la prevenzione penale appartiene al circuito pubblico e si sviluppa entro coordinate di legalità tipizzata, responsabilità politica e controllo giurisdizionale. L’aspettativa sociale generata da eventi traumatici esercita tuttavia una pressione diversa, perché attribuisce alla tecnologia una vocazione anticipatoria sempre più penetrante.
In tale slittamento prende forma una tensione sistemica: la piattaforma nasce come infrastruttura comunicativa, però l’opinione pubblica e, in misura crescente, il decisore politico le assegnano un ruolo para-preventivo che incide sulla fisionomia stessa dello spazio digitale.
Chatbot/chatgpt, il giudizio di pericolosità e la segnalazione alla polizia
Il nodo giuridico si addensa attorno alla titolarità del giudizio di pericolosità. Quando un sistema di IA segnala contenuti inquietanti, la decisione che precede l’eventuale allerta alle forze dell’ordine richiede una qualificazione semantica del discorso. Proprio qui il terreno diventa costituzionalmente scivoloso.
Il linguaggio che attraversa i modelli generativi possiede una natura intrinsecamente ambigua: finzione narrativa, simulazione ipotetica, sfogo emotivo, provocazione retorica convivono nello stesso spazio testuale. La traduzione automatica di questa materia fluida in un indicatore di rischio incorpora una quota fisiologica di incertezza interpretativa. L’ordinamento, nel momento in cui incentiva forme di pre-allerta sempre più anticipate, accetta implicitamente che tale incertezza venga gestita da soggetti economici privati attraverso criteri tecnici proprietari.
Legalità sostanziale: soglie tra moderazione e segnalazione esterna
Qui affiora il punto di frizione con il principio di legalità sostanziale. La soglia che determina il passaggio dalla moderazione interna alla segnalazione esterna non nasce, allo stato, da una tipizzazione legislativa compiuta, bensì da policy aziendali aggiornabili in via unilaterale.
Il risultato produce un’asimmetria strutturale: decisioni capaci di incidere su libertà comunicativa, riservatezza e reputazione individuale maturano entro architetture procedurali sottratte al circuito classico della responsabilità pubblica. La richiesta politica di protocolli di escalation più incisivi, emersa dopo la sparatoria, accentua proprio questo punto sensibile, perché spinge verso una stabilizzazione funzionale del ruolo preventivo delle piattaforme.
Libertà e sicurezza senza segnalazione alle forze dell’ordine automatica
Una simile evoluzione modifica il bilanciamento tra libertà e sicurezza in modo più profondo di quanto la superficie del dibattito lasci intuire. Una soglia di allerta molto anticipata aumenta la capacità di intercettazione, però espande parallelamente l’area della sorveglianza privata e introduce un effetto di raffreddamento sulla parola digitale. L’utente che percepisce la conversazione come spazio costantemente filtrato ricalibra il proprio comportamento comunicativo.
La libertà di espressione, nel contesto europeo, tutela anche forme linguistiche disturbanti o iperboliche purché prive di un nesso concreto con offese imminenti a beni giuridici. L’automazione del sospetto tende invece a trattare l’ambiguità come fattore di rischio, poiché l’ambiguità aumenta il costo decisionale.
Parametri stretti e segnalazione alle forze dell’ordine: rischio residuo
Se, al contrario, la soglia resta ancorata a parametri di stretta prossimità temporale dell’azione violenta, l’efficacia preventiva perde incisività e il sistema accetta un margine di rischio residuo. Il diritto si trova così su un crinale stretto nel quale nessuna soluzione tecnica offre neutralità. La scelta diventa inevitabilmente normativa e richiede una presa di posizione esplicita sull’allocazione del potere preventivo.
DSA, AI Act e il limite della segnalazione Chatgpt alle forze dell’ordine proattiva
Il quadro europeo già offre coordinate utili. Il Digital Services Act costruisce obblighi di gestione del rischio e di trasparenza per le piattaforme di grandi dimensioni; l’AI Act introduce un sistema di governance graduato in base al livello di rischio dei sistemi di intelligenza artificiale.
Tuttavia, l’idea di un obbligo generalizzato di segnalazione proattiva verso le forze dell’ordine eccede la logica tipica di tali strumenti, i quali privilegiano accountability, audit e mitigazione piuttosto che una trasformazione delle piattaforme in sensori diffusi della sicurezza penale. La distanza tra queste architetture normative e la pressione politica successiva a eventi violenti segnala una zona di possibile attrito sistemico.
Garanzie procedurali per la segnalazione alle forze dell’ordine
La questione procedurale acquista un peso decisivo. Una segnalazione verso l’autorità pubblica comporta effetti potenzialmente invasivi e richiede quindi una catena decisionale tracciabile, criteri verificabili, revisione umana qualificata, forme di controllo indipendente.
Senza tali presidi, il bilanciamento tra libertà e sicurezza rischia di migrare dal piano della legalità democratica al piano della governance aziendale. Il costituzionalismo europeo ha storicamente costruito barriere proprio contro questa migrazione, attraverso riserve di legge, garanzie giurisdizionali e responsabilità politiche.
Il caso canadese e l’evoluzione della segnalazione alle forze dell’ordine
Il caso canadese funziona allora come banco di prova ad alta intensità. La rapidità con cui il dibattito pubblico ha richiesto protocolli più aggressivi di escalation indica una trasformazione percettiva delle piattaforme di IA: da intermediari conversazionali a possibili nodi anticipatori della sicurezza. Se tale trasformazione dovesse consolidarsi in assenza di una tipizzazione legislativa rigorosa delle soglie di intervento e delle garanzie procedurali, l’equilibrio tra libertà comunicativa e controllo preventivo subirebbe una torsione di lungo periodo.
L’interrogativo finale sulla segnalazione alle forze dell’ordine
Resta sul tavolo l’interrogativo di base, che nessuna ingegneria algoritmica può eludere. Fino a quale punto un ordinamento democratico può spingere operatori privati verso funzioni di pre-allerta penale senza ridefinire, in modo forse irreversibile, la fisionomia della libertà comunicativa nello spazio digitale? Su questa linea di tensione si giocherà una parte decisiva del diritto dell’intelligenza artificiale nei prossimi anni.
















