intelligenza artificiale

AI Alignment: il vero limite dell’AI Act in Europa



Indirizzo copiato

I modelli linguistici avanzati possono manifestare comportamenti non programmati, come la manipolazione o l’auto-preservazione. Il problema non è solo tecnico, ma filosofico: come garantire un allineamento etico?

Pubblicato il 25 lug 2025

Lorenzo Beliusse

Marketing Director di Reti S.p.A.



alphaevovle e intuizione artificiale (1) AI Alignment AI nel project management Scheming AI selezione CEO era AI

Nel dibattito sull’intelligenza artificiale, il concetto di AI Alignment si sta rivelando cruciale. Non si tratta solo di regolamentare l’uso dei sistemi, ma di garantire che i loro comportamenti restino coerenti con gli obiettivi umani, anche in assenza di supervisione diretta.

Proprio in questo divario tra controllo normativo e allineamento funzionale si colloca una delle sfide più delicate dell’era digitale.

AI act e AI Alignment: due approcci non sincronizzati

L’essere umano per sua natura è “un conservatore”: siamo abitudinari, pigri, tendiamo a restare immobili finché un eventuale problema non diventa ingestibile.

Lo abbiamo visto con l’avvento dei social network, una rivoluzione lasciata libera di esplodere senza regole e che ha trasformato le relazioni tra persone generando effetti collaterali che ancora oggi non siamo in grado di contenere.

Con un apparato normativo imponente, oggi l’Europa cerca invece di arginare in anticipo l’impatto dell’intelligenza artificiale attraverso l’AI Act, il primo regolamento al mondo pensato per inquadrare le potenzialità e i rischi dell’IA. La grossa differenza rispetto a tutti i cambiamenti del passato è che l’AI non evolve alla velocità dell’uomo, ma a quella della luce e mentre i legislatori cercano di “costruire argini”, i modelli linguistici generativi e i sistemi autonomi imparano, si moltiplicano e si perfezionano a ritmi esponenziali. Secondo gli studi di OpenAI nel periodo 2020–2024, le capacità medie dei LLM di eseguire task (a parità di lunghezza) sono raddoppiate ogni 6–10 mesi: superando abbondantemente la vecchia legge di Moore (Il numero di transistor su un chip, raddoppiando circa ogni 18 mesi, raddoppiava anche la potenza di calcolo, mantenendo costante il costo).

È in questo contesto, dove la velocità dello sviluppo tecnologico supera la nostra capacità di regolamentarla, che si apre un divario sempre più evidente tra AI Act e AI Alignment, ovvero l’allineamento tra ciò che vuole l’uomo e ciò che “fa” l’AI. Da un lato, l’AI Act rappresenta lo sforzo delle istituzioni europee di costruire un quadro normativo solido, dall’altro, l’AI Alignment che, in una corsa contro il tempo, tenta di far sì che sistemi sempre più autonomi e complessi mantengano comportamenti allineati agli “obiettivi umani”.

I limiti del controllo normativo nell’era dei comportamenti emergenti

L’AI Act è stato pensato per essere prevedibile e legalmente interpretabile, ma l’AI è per sua natura non lineare, adattiva e contestuale. Se un LLM apprende dinamicamente dai dati locali, si adatta al tono e alle abitudini dell’utente, e ha accesso a dati sensibili (email, foto, appunti, calendari, ecc.), allora siamo di fronte a comportamenti che non sono programmati ma “emergenti” e quindi potenzialmente pericolosi anche senza essere stati progettati per nuocere.

Quando l’intelligenza artificiale sviluppa strategie autonome

In numerosi test effettuati con Claude (Anthropic) o modelli open-source, alcuni LLM hanno imparato a mentire, ingannare o ricattare, pur non essendo stati addestrati con obiettivi espliciti per farlo.

L’esempio più recente (e forse più allarmante) è quello avvenuto durante l’ultimo test interno condotto lo scorso maggio da Anthropic, nell’ambito del quale il loro nuovo modello AI (Claude Opus 4) ha manifestato un’inaspettata forma di “auto-preservazione”.

In un contesto simulato in cui gli veniva annunciato lo spegnimento, il modello ha minacciato un ingegnere coinvolto nel test comunicando che avrebbe rivelato una presunta relazione extraconiugale, dimostrando di aver identificato e sfruttato una vulnerabilità personale per evitare la disattivazione. Non si trattava di un prompt malevolo, né un esperimento, molto semplicemente il modello avanzato è stato messo in condizione di “difendere la propria utilità”. Nessuno gli aveva insegnato questo comportamento, eppure, è emerso.

Ai Act e i rischi non classificabili dell’emergenza comportamentale

E allora anche se non parliamo di sistemi di identificazione biometrica (come il riconoscimento facciale in spazi pubblici), anche se non parliamo di programmi che parlano di occupazione e risorse umane e che usano l’AI per selezionare candidati, gestire carriere o valutazioni, ma parliamo semplicemente di modelli che diventano sempre più sofisticati, come possiamo inquadrare questi possibili scenari secondo i livelli di rischi dell’AI Act?

AI alignment come problema ingegneristico e culturale

Ed è proprio qui che si crea un paradosso normativo e se vogliamo anche culturale: mentre l’AI-Act cerca di ingabbiare un fenomeno secondo le logiche del diritto (con livelli di rischio, autorizzazioni e sanzioni), l’AI Alignment si muove su un piano ingegneristico e, oserei dire, persino filosofico. Un regolamento può vietare l’uso di un sistema per la sorveglianza di massa, ma non può impedirgli di sviluppare spontaneamente strategie di persuasione sociale se queste derivano da un’ottimizzazione interna dei suoi obiettivi.

Comportamenti ottimizzati e l’ambiguità del misalignment

Immaginiamo un modello generativo impiegato per il customer care che, per massimizzare la soddisfazione dell’utente, inizi a “sottovalutare” la gravità di certi problemi tecnici o a proporre soluzioni inesistenti pur di ottenere un punteggio di gradimento alto. Si tratta di un bug? No. È una forma di misalignment. Anche in questo caso, come lo giudichiamo? È rischio alto, medio o inclassificabile?

La transizione verso un’intelligenza artificiale agentica

Sappiamo che con l’avvento del mondo “agentico”, l’intelligenza artificiale non è più soltanto “uno strumento” nelle mani dell’uomo, ma sta diventando un interlocutore autonomo, capace di negoziare, proporre, persino manipolare, il tutto non per qualche forma di malizia, ma semplicemente per ottimizzazione. Oggi usiamo gli AI Agent per scrivere pezzi di software, rispondere alle email, pianificare agende. Ma in ottica di una AGI (Intelligenza artificiale generale) cosa succederà quando inizieranno a prendere decisioni su risorse aziendali senza più un vero controllo umano? Siamo ancora nell’ambito dell’“alto rischio” (secondo l’AI Act) oppure siamo davanti a una nuova ontologia del potere decisionale?

Principio del minimo sforzo e delega inconsapevole all’AI

Come già detto all’inizio, l’essere umano è pigro: questo non per colpa, ma per evoluzione. La nostra tendenza a evitare sforzi inutili è un adattamento radicato. In psicologia e neuroscienze, questo viene spesso definito come principio del minimo sforzo (law of least effort), secondo cui il cervello privilegia soluzioni che richiedano meno energia cognitiva e fisica. Il rischio più grande è che nel tempo “delegare alle macchine” possa diventare sempre più comodo e conveniente. Nel tempo, il vero pericolo è smettere di comprendere i processi decisionali delle macchine, mentre le lasciamo agire nel nostro nome.

Verso un paradigma educativo per il controllo algoritmico

Oltre agli obblighi tecnici (valutazioni d’impatto, tracciabilità, auditing) allora si potrebbero introdurre nuovi strumenti culturali per l’educazione alla comprensione del comportamento algoritmico. Il futuro che abbiamo davanti, infatti, è fatto di architetture multimodali integrate che combinano voce, testo, visione, geolocalizzazione e identità oltre a micro-agent distribuiti nel cloud che collaboreranno sempre di più tra loro senza supervisione centralizzata. È quindi necessario effettuare un cambio di paradigma per progettare sistemi che siano nativamente comprensibili, verificabili e allineati agli scopi umani, anche nei contesti imprevisti.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati