Se utilizzi l’intelligenza artificiale in azienda, devi fare alcune cose subito per essere conforme all’AI Act. Subito, non tra mesi. Perché l’AI Act è legge dell’Unione europea e prevede sanzioni molto pesanti. Nei casi più gravi si arriva fino a 35 milioni di euro o fino al 7% del fatturato globale annuo. In molti altri casi le sanzioni arrivano comunque fino a 15 milioni o al 3% del fatturato globale. Per molte aziende, anche piccole, è un rischio reale di blocco dell’attività.
Indice degli argomenti
AI Act e responsabilità aziendale
L’AI Act non riguarda solo chi sviluppa modelli di intelligenza artificiale, riguarda anche chi li usa. Aziende grandi, piccole e medie, studi professionali, consulenti, agenzie. Se usi l’AI per prendere decisioni che incidono su diritti, lavoro o accesso a servizi, per selezionare persone, fare valutazioni automatiche, profilare clienti, assegnare punteggi, rientri nel campo di applicazione. Questo vale anche se l’AI non l’hai sviluppata tu. Se la usi, la responsabilità è anche tua.
Cosa devi fare se usi l’AI in azienda: i cinque step
Quando ho fatto parte del Comitato che ha aiutato a scrivere la legge italiana sulla AI, ovviamente ci siamo confrontati sulla reale efficacia di queste regole e, credetemi, anche se sembrano oneri pesanti, è l’unico modo per tutelare le persone. Quindi, ecco cosa devi fare subito.
Conformità AI Act: mappa subito dove stai usando l’AI
Primo punto: devi sapere dove stai usando l’AI. Devi mappare tutti i sistemi di intelligenza artificiale presenti in azienda: software interni, strumenti esterni, piattaforme, servizi in abbonamento. Senza un inventario chiaro non puoi essere conforme.
Le competenze richieste: formare chi utilizza l’AI in azienda
Secondo punto: devi formare le persone che usano l’AI. L’AI Act prevede già l’obbligo di competenze adeguate per chi utilizza sistemi di intelligenza artificiale. Non è facoltativo.
Valutazione e documentazione del rischio secondo l’AI Act
Terzo punto: devi classificare il rischio. L’AI Act distingue tra pratiche vietate, sistemi ad alto rischio e altri sistemi soggetti a obblighi di trasparenza. Questa valutazione va fatta e va documentata.
Trasparenza AI Act: informare persone, utenti e destinatari dei contenuti
Quarto punto: devi garantire trasparenza verso le persone. Se qualcuno interagisce con un sistema di AI deve saperlo. Se un contenuto è generato o manipolato artificialmente, va indicato. Questo vale anche per chatbot e contenuti sintetici.
Sistemi ad alto rischio: obblighi operativi e controlli da attivare
Quinto punto: se utilizzi sistemi ad alto rischio, devi applicare obblighi operativi precisi: supervisione umana reale, controllo dei dati in input, monitoraggio continuo, conservazione dei log, gestione degli incidenti e segnalazioni quando necessario. Senza queste misure non sei conforme.
L’errore più comune è pensare che l’AI Act sia solo un tema legale. Non lo è. È un obbligo operativo per chi usa l’intelligenza artificiale nel lavoro quotidiano.













