scenario 2026

L’AI entra nell’era della responsabilità e dei controlli



Indirizzo copiato

L’adozione dell’IA cresce in Italia, soprattutto tra le grandi imprese: Istat fotografa tecnologie e funzioni aziendali più coinvolte, ma segnala il nodo competenze. Sullo sfondo, le previsioni HAI sul “dopo-hype” e una regolazione in evoluzione che impatta governance e conformità

Pubblicato il 8 gen 2026

Giacomo Borgognone

Avvocato Legal Consultant P4I – Partners4Innovation

Anna Cataleta

Senior Partner di P4I e Senior Advisor presso l’Osservatorio Cybersecurity & Data Protection (MIP)



pseudonimizzazione dei dati Data Act e PMI governance algoritmica dati pseudonimizzati in sanità

L’Intelligenza artificiale oggi rappresenta uno dei principali elementi di trasformazione dei modelli organizzativi, produttivi e decisionali delle imprese e delle pubbliche amministrazioni. Come emerge anche dai dati Istat1, l’adozione di soluzioni di IA è in costante crescita, con un impatto sempre maggiore. A fronte di questo sviluppo costante si pongono questioni di governance, competenze e conformità normativa.

Proviamo allora a offrire una panoramica sull’attuale utilizzo dell’IA, sulle prospettive evolutive delineate dagli esperti internazionali e sul ruolo centrale della regolamentazione, con particolare attenzione ai profili di protezione dei dati personali.

L’adozione dell’intelligenza artificiale in Italia

Rispetto all’Intelligenza artificiale, secondo i dati di Istat, l’adozione di soluzioni di IA in Italia è cresciuta in modo significativo ed è molto utilizzata soprattutto tra le grandi imprese.

Un dato interessante riguarda le tecnologie di IA che risultano più comuni; tra queste Istat menziona: l’estrazione di conoscenza e informazione da documenti di testo, l’IA generativa relativa sia al linguaggio scritto o parlato che a immagini, video, suoni/audio e la conversione della lingua parlata in formati leggibili da dispostivi informatici attraverso tecnologie di riconoscimento vocale, l’analisi dei dati con tecniche di machine learning, il riconoscimento delle immagini e l’automatizzazione dei flussi di lavoro.

Oltre agli impieghi dell’IA, è interessante evidenziare anche gli ambiti che registrano il maggior utilizzo di IA all’interno delle organizzazioni. Tra questi emergono il marketing e le vendite, l’organizzazione dei processi amministrativi e l’area della ricerca e sviluppo o innovazione. Infine, un punto di attenzione che emerge dall’analisi di Istat è la centralità delle competenze, le quali devono essere adeguate al fine di non frenare l’adozione dell’IA.

Le prospettive future secondo Stanford HAI

Se il report di Istat fornisce una visione di quello che è, ad oggi, l’utilizzo dell’IA che viene fatto dalle organizzazioni, un altro punto di vista autorevole è quello offerto dagli esperti dello Stanford Institute for Human-Centered AI (“HAI“) che volgono lo sguardo verso il futuro di quello che potrebbe essere l’IA2.

Le diverse previsioni evidenziano che il 2026 sarà l’anno in cui si dovrà superare l’hype e capire, in concreto, quali sono i punti di forza dell’IA, focalizzandosi sulla costruzione di soluzioni IA che portino benefici a lungo termine. Un altro aspetto che emerge da alcune osservazioni è che gli Stati cercheranno di ottenere l’indipendenza da fornitori di modelli presenti negli Stati Uniti.

Il quadro regolamentare europeo in evoluzione

Se fin qui si è data rilevanza a quelli che sono e potrebbero essere i trend legati all’IA, occorre ora mettere sul campo un ulteriore elemento che necessariamente ha e avrà un ruolo centrale nell’adozione dell’IA: la regolamentazione. Infatti, se da una parte il 2026 è l’anno in cui l’AI Act diventerà pienamente applicabile, dall’altra emerge la proposta di regolamento Digital Omnibus che mira a ridurre la complessità, armonizzare le disposizioni non allineate e alleggerire i costi di conformità per imprese, amministrazioni pubbliche e cittadini.

Di particolare interesse è la possibile posticipazione dell’entrata in vigore di alcuni degli obblighi previsti dall’AI Act. Ciò può essere utile anche in considerazione del fatto che ad oggi ci sono spazi interpretativi e serve maggior certezza per poter svolgere la propria attività d’impresa e indirizzare correttamente le proprie risorse.

GDPR e IA: i principi sotto pressione

Sul fronte della protezione dei dati personali, la diffusione sistematica di soluzioni di IA ha già portato alcuni organismi e autorità nazionali (tra cui, ad esempio lo European Data Protection Board (EDPB), l’European Data Protection Supervisor (EDPS), l’Autorità Garante per la protezione dei dati personali e la CNIL) a pubblicare delle linee guida e dei pareri per una corretta gestione dei dati personali nell’ambito dello sviluppo e dell’adozione di soluzioni di IA. In particolare, è emerso che l’uso di soluzioni di IA mette sotto stress alcuni pilastri del GDPR tra cui, ad esempio, i principi di minimizzazione, di limitazione della finalità e di trasparenza.

Rispetto al primo, è evidente che spesso i modelli di IA richiedono per l’addestramento dataset ampi ed eterogenei, creando una tensione con l’obbligo di utilizzare solo i dati strettamente necessari. In merito alla trasparenza, uno dei punti critici riguarda la capacità di spiegare all’interessato il funzionamento delle soluzioni di IA senza semplificazioni eccessive ma in modo comprensibile, al fine di mettere nelle condizioni l’interessato stesso di poter esercitare i propri diritti.

Enforcement coordinato e modifiche normative

Quest’ultimo elemento è stato anche oggetto della scelta dell’EDPB che ha individuato “il rispetto degli obblighi di trasparenza e informazione previsti dal Regolamento generale sulla protezione dei dati (GDPR)”3 come argomento del framework coordinato di enforcement per il 2026.

In questo contesto di innovazione si inserisce anche la proposta di regolamento omnibus che introduce importanti modifiche al GDPR, introducendo degli emendamenti specifici che riguardano il trattamento di dati personali nell’ambito delle soluzioni di IA.

Verso una compliance integrata

Il quadro sopra delineato evidenzia che l’IA si colloca oggi in una fase di maturazione, in cui l’entusiasmo iniziale per la novità deve confrontarsi con l’esigenza di soluzioni sostenibili, affidabili, che portino un reale beneficio e che siano conformi al quadro normativo. In tale contesto emerge la necessità di un approccio di compliance integrata, che non può più essere costruito su compartimenti stagni o in una logica a silos.

La governance dell’IA richiede, infatti, un’interlocuzione costante tra profili tecnologici, legali, organizzativi ed etici, nonché un coordinamento tra le diverse funzioni aziendali coinvolte. Pertanto, è necessaria una visione sistemica e interconnessa attraverso la quale sarà possibile per imprese e organizzazioni investire in soluzioni di IA capaci di generare valore nel lungo periodo, garantendo al contempo la tutela dei diritti fondamentali, la trasparenza dei processi e la fiducia degli interessati.

  1. Istat, “Imprese e ICT”, anno 2025 ↩︎
  2. “Stanford AI Experts Predict What Will Happen in 2026” | Stanford HAI ↩︎
  3. EDPB, Coordinated Enforcement Framework: EDPB selects topic for 2026 ↩︎
guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x