L’Unione Europea si è attivata per cercare di definire dal punto di vista legislativo i parametri, i limiti e le misure di sicurezza che devono accompagnare gli strumenti a base di intelligenza artificiale. Oltre che nell’AI Act – sicuramente la normativa europea più rilevante sull’intelligenza artificiale – la questione dei macchinari che usano l’IA è trattata anche nel recente Regolamento Macchine 2023/1230, la norma che dal 2027 andrà definitivamente a sostituire la Direttiva Macchine 2006/42/CE.
Tuttavia, questi due regolamenti risultano in qualche modo problematici rispetto alla gestione della sicurezza dei macchinari che usano l’IA, in quanto lasciano spazio a diversi dubbi, aree grigie e contraddizioni che, per ora, non appaiono del tutto risolvibili.
Indice degli argomenti
Intelligenza artificiale e macchinari industriali: un problema di definizioni
Non solo large linguistic model come Chat GPT e sui possibili rischi per la privacy e il diritto d’autore: l’AI è entrata ormai in fabbrica. Sempre più spesso, macchinari e strumentazione industriale si avvalgono di software che utilizzano una qualche forma di apprendimento automatico o svolgono funzioni predittive: chatbot di assistenza “intelligenti” integrati ai macchinari industriali, veicoli a guida autonoma, magazzini automatici, sensori per la manutenzione predittiva e sistemi che analizzano in anticipo potenziali rischi e incidenti sono solo alcuni esempi di come l’IA sia, di fatto, già presente all’interno delle fabbriche.
Una prima questione cruciale nella regolamentazione dei macchinari industriali “intelligenti” è relativa alla questione della definizione. In altre parole, quando abbiamo a che fare con i macchinari industriali non è sempre facile capire quando si può applicare la classificazione di intelligenza artificiale presente nella legislazione.
Cosa dice la legge
Al momento, l’unica definizione normativa ufficiale di intelligenza artificiale è quella presente nell’AI Act, dove si stabilisce che un sistema di IA è «un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali» [Articolo 3]. Gli elementi chiave per definire un sistema di IA sarebbero, quindi una certa autonomia (si parla di livelli variabili), l’adattabilità dopo la diffusione e la generazione di output – previsioni, contenuti, raccomandazioni o decisioni – che influenzano l’ambiente circostante, sia esso reale o digitale.
Rispetto ai macchinari industriali, questa definizione risulta però molto generica. Di base, qualsiasi macchina genera degli output sulla base di input, ad esempio sulla base di vincoli e lavorazioni determinate in precedenza. Detto altrimenti, basandosi su questa dicitura si potrebbero considerare sistemi di intelligenza artificiale anche dispositivi che sono entrati nelle fabbriche ben prima che si iniziasse a parlare di IA, come i magazzini automatizzati o le linee di verniciatura che in base ad una serie di dati (es. il tasso di umidità dell’aria, la temperatura ecc) decidono come gestire la colorazione dei prodotti. Tali sistemi sono infatti automatici, adattabili e producono output sotto forma di decisioni, ma non utilizzano davvero l’intelligenza artificiale al pieno della sua potenzialità.
La necessità di controllo umano
Detto in altri termini, il vero punto di forza dei sistemi di IA è che essi prendono decisioni elaborando su base statistica grandi moli di dati. E, in questo senso, la gran parte delle intelligenze artificiali che si usano oggi in fabbrica sono immature, nel senso che non hanno a disposizione così tanti dati da elaborare. Naturalmente ci sono delle eccezioni, ad esempio sistemi collegati a macchinari venduti da grandi multinazionali, che quindi hanno effettivamente accesso a database più ampi. Oltretutto, tale problema è temporaneo, perché con l’introduzione massiva di questi sistemi e col passare del tempo i dati a disposizione andranno aumentando sempre più.
Tuttavia, allo stato attuale, la situazione si configura in questi termini. Da qui anche la necessità di sottoporre i sistemi di IA ad un costante controllo umano, assolutamente necessario per vagliare e validare le decisioni dei macchinari automatizzati. Questo è un passaggio fondamentale, che ha ricadute gigantesche sulla sicurezza, la valutazione dei rischi e la gestione delle responsabilità legate a questi macchinari.
Macchinari industriali e AI Act: la questione della classificazione del rischio
Per provare a mappare e normare l’intelligenza artificiale – un mondo ancora sconosciuto e in continua evoluzione, quindi difficile da regolamentare – i legislatori europei hanno scelto di affidarsi ad uno strumento che i produttori di macchinari industriali conoscono molto bene: la certificazione CE. I sistemi a base di IA prodotti o venduti nell’Unione Europea devono (o dovrebbero) rispettare gli standard di sicurezza europei per ottenere la certificazione CE che li rende commerciabili, inclusi i parametri relativi alla valutazione dei rischi.
Sintetizzando e schematizzando la norma, nel Regolamento europeo sull’intelligenza artificiale (AI Act) si stabiliscono diversi livelli di rischio: rischio inaccettabile, alto rischio, rischio limitato e rischio minimo. Il rischio inaccettabile, che si traduce in divieto di produzione e vendita nell’Unione Europea, riguarda i sistemi che violano i diritti umani e i valori fondamentali dell’Unione. Sono invece considerati ad alto rischio quei sistemi con applicazioni critiche, come quelle sanitarie o infrastrutturali, che sono quindi soggetti a obblighi molto rigorosi di trasparenza e tracciabilità. Il rischio basso, o limitato, viene invece associato a prodotti con un impatto minore, ad esempio i software di elaborazione automatica delle immagini, in cui i pericoli sono legati soprattutto alla trasparenza. Infine, il rischio minimo o nullo è collegato ai sistemi che non presentano particolari pericoli rispetto ai diritti o alla sicurezza del singolo, come potrebbe essere un’app di gioco che utilizza l’IA.
Gli impatti
Come risulta chiaro da questa breve descrizione, l’AI Act si focalizza soprattutto sull’impatto sociale e sui potenziali pericoli per i diritti individuali dei sistemi ad intelligenza artificiale. Benché si tratti sicuramente di una questione urgente e di massima importanza, tale approccio ha la pecca di mettere in secondo piano i rischi ben più pratici collegati agli oggetti fisici che utilizzano sistemi di intelligenza artificiale – non solo macchinari industriali, ma anche lavatrici, robot di pulizia e, in generale, elettrodomestici e strumenti elettronici ad uso quotidiano dotati di software di autoapprendimento, che non sono mai esplicitamente citati all’interno del regolamento.
Nelle fabbriche, l’errore di un macchinario o un di componente di sicurezza che usa l’IA potrebbe causare infortuni e addirittura morti accidentali, ma la norma sembrerebbe suggerire che i macchinari andranno comunque a rientrare nelle categorie di rischio più basse, in quanto non rappresentano un pericolo per la società o un rischio per i diritti umani fondamentali. Solo con la pubblicazione delle norme tecniche dell’AI Act, prevista nel prossimo futuro, si potranno però conoscere effettivamente i criteri e i metodi per la valutazione del rischio e la classificazione dei sistemi IA.
AI, cosa dice il Regolamento macchine
Considerato che le indicazioni dell’AI Act su come gestire il rischio dei macchinari che usano l’intelligenza artificiale risultano ancora fumose – se non proprio incomplete – chi si occupa di sicurezza dei macchinari industriali deve necessariamente fare riferimento al Regolamento macchine 2023/1230, la più recente normativa europea sulla sicurezza dei macchinari.
Il Regolamento macchine, approvato prima dell’AI Act, si occupa effettivamente di intelligenza artificiale in relazione ai macchinari o ai componenti di sicurezza, anche se all’interno di questa norma si usa la definizione di sistema o comportamento autoevolutivo. Tuttavia, il Regolamento macchine inserisce macchinari e componenti ad apprendimento automatico all’interno dell’allegato I, ovvero nell’elenco di macchine considerate ad alto rischio, obbligate a rispettare standard di sicurezza molto scrupolosi e convalidare la certificazione CE solo tramite l’intervento di un ente esterno notificato. Un’interpretazione rigorosa della norma, dunque, obbligherebbe a certificare tutti i macchinari e i componenti che usano l’IA solo ed esclusivamente passando per un ente esterno riconosciuto dall’Unione Europea.
Differenze tra Ai act e Regolamento macchine
Ciò comporta, però, ulteriori difficoltà, in quanto al momento non esistono norme tecniche internazionali di tipo UNI, CEI, ISO che spieghino come certificare un software di intelligenza artificiale, e i requisiti essenziali di sicurezza indicati nello stesso Regolamento macchine risultano troppo generici e poco funzionali a questo tipo di valutazione.
Si crea così un impasse, che coinvolge non solo gli enti notificati, ma anche i consulenti per la sicurezza che operano nelle fabbriche che applicano il paradigma Industria 5.0 e i funzionari ministeriali che devono controllare le certificazioni, che si ritrovano privi degli strumenti tecnici e legislativi necessari per muoversi correttamente. Oltre a ciò, AI Act e Regolamento macchine sembrerebbero entrare in contraddizione sul trattamento da seguire per i macchinari che utilizzano l’intelligenza artificiale, e non risulta ben chiaro a quale delle due normative si debba dare più peso – l’AI Act è infatti più recente, ma il Regolamento macchine è rivolto più nello specifico ai macchinari industriali.
Bibliografia
“Intelligenza artificiale: i rischi nelle fabbriche. Guida per chi vuole l’IA negli stabilimenti industriali”, dell’autore Claudio Delaini e dei collaboratori Silvia Zuanon, Massimo Marini e Roberto Serra, 2025.