L’osmosi cognitiva è il nome di un fenomeno che avviene ogni giorno negli uffici di migliaia di aziende, in silenzio, senza allarmi e senza violazioni: ogni volta che un professionista formula un prompt per un sistema di AI generativa, non trasferisce solo un quesito, ma una parte del modo in cui la sua organizzazione pensa.
Indice degli argomenti
Il professionista attento che crede di essere al sicuro
Immaginiamo, quindi, un professionista seduto alla sua scrivania un martedì mattina qualunque, nell’atto di caricare su ChatGPT un documento estratto dal NAS aziendale e formulare al sistema AI un quesito, o meglio a inoltrare al sistema un prompt per avviare un’attività di cui gli interessa ottenere il risultato.
Prima di farlo, compie con scrupolo i gesti che gli sono stati insegnati: rimuove i nomi dei clienti, oscura i riferimenti anagrafici, si assicura che nessun dato personale sopravviva nel file. È attento, è in regola, il documento è pulito nel senso che oggi attribuiamo a quella parola e conforme quindi alle prescrizioni GDPR e alla compliance aziendale. Poi preme invio.
La trappola invisibile del prompt: non i dati, ma il pensiero
Ci sono voluti decenni per arrivare a quel gesto consapevole – proteggere prima i file, poi i dati personali – interiorizzando e internalizzando nelle aziende una cultura che il GDPR ha reso giuridicamente vincolante. Un equilibrio faticosamente conquistato, che alla fine sembrava reggere.
Poi è entrata in scena l’intelligenza artificiale generativa, e quel professionista attento, scrupoloso, perfettamente in regola col GDPR, si trova oggi esposto a una forma di perdita che nessuno gli ha ancora insegnato a riconoscere, perché non riguarda i dati che ha rimosso dal documento e che dunque non saranno condivisi, ma l’intelligenza che ha messo nel modo in cui ha formulato la domanda, in altre parole nel prompt che ha elaborato.
L’84% delle aziende usa l’AI generativa. Quasi nessuna protegge il capitale cognitivo
Secondo l’Osservatorio AI del Politecnico di Milano, nel 2025 l’84% delle grandi aziende italiane ha già acquistato la licenza di almeno uno strumento di AI generativa. Nessuna ricerca misura quante abbiano una policy di protezione del capitale cognitivo che attraverso quegli strumenti fuoriesce ogni giorno. Il dato mancante dice più di qualsiasi statistica disponibile.
La convinzione, diffusa, è che essere in regola con i regimi di protezione dei dati equivalga a essere al sicuro. È una convinzione comprensibile — quei regimi hanno richiesto anni di impegno — ma costruita attorno a una categoria di rischio che l’AI generativa ha reso obsoleta senza che quasi nessuno se ne accorgesse. Il problema non è una variante del problema dei dati. È un problema di natura ontologicamente diversa.
Il sapere che non sta in nessun archivio: cos’è il capitale cognitivo aziendale
Esiste, nel valore di un’organizzazione, una dimensione che sfugge strutturalmente alla logica del dato: i modelli mentali, le logiche decisionali, i processi impliciti che un’organizzazione sviluppa nel tempo e che guidano, silenziosamente, ogni scelta rilevante.
Questo sapere operativo non vive in nessun documento, non è in nessun archivio, non si trasferisce con una chiavetta USB. È una competenza che si manifesta nell’atto del fare — nel modo in cui un team riconosce un problema prima che diventi crisi, nel modo in cui anni di esperienza settoriale si condensano nella domanda giusta posta al momento giusto. Nessun file system lo contiene. Nessun backup lo preserva. Nessuna policy di accesso lo protegge. Ed è questo patrimonio che l’adozione non governata dell’AI generativa espone a un rischio che nessuna clausola contrattuale GDPR-compliant è in grado di intercettare, ma che non puo’ e non deve essere sottovalutato perché è parte sostanziale dell’expertise e del capitale umano di un’azienda.
L’avvocato e il contratto M&A: quando il vero rischio è nella domanda, non nei dati
Considerate questo scenario concreto: un avvocato d’affari chiede a ChatGPT di analizzare un contratto di M&A. Nel prompt non inserisce dati personali, ma codifica qualcosa di più prezioso: la sua metodologia di analisi del rischio contrattuale, i parametri che considera critici, la gerarchia con cui pesa le clausole ambigue, il framework valutativo costruito in anni di pratica. Quell’interrogazione precisa e calibrata – irripetibile da chi quella esperienza non la possiede – è esattamente ciò che viene trasferito alla piattaforma.
Il problema non riguarda, quindi, l’intelligenza artificiale in sé, ma l’uso sistematico di modelli cloud appartenenti a soggetti terzi come estensione del processo decisionale aziendale.
Osmosi cognitiva: il trasferimento silenzioso che non lascia traccia nei log
Questo fenomeno – che chiamo osmosi cognitiva – non richiede alcuna violazione, non innesca alcun allarme, non lascia traccia nei log di compliance. Il dipendente non viola nessuna policy. Il sistema di sicurezza non rileva nessuna anomalia. Anche quando i provider dichiarano che i prompt aziendali non vengono utilizzati per l’addestramento dei modelli, il trasferimento di metodologie, logiche decisionali e strutture di ragionamento rimane un fenomeno reale di esternalizzazione cognitiva: il processo decisionale dell’organizzazione viene progressivamente delegato a un’infrastruttura di intelligenza artificiale che appartiene a soggetti terzi.
Interazione dopo interazione, il modo in cui l’organizzazione pensa e analizza i problemi trova una rappresentazione operativa fuori dai propri confini.
Il punto cieco dell’AI Act: cosa il regolamento europeo non vede
Questo aspetto non è stato colto e/o regolato dall’AI Act. Ora, l’AI Act – Regolamento UE 2024/1689 – rappresenta il tentativo più ambizioso del legislatore europeo di governare i sistemi di intelligenza artificiale, e la sua architettura merita rispetto. Ma nella sua struttura il Regolamento guarda in una direzione precisa: il rischio che i sistemi AI producono sugli individui e sulla società. L’Art. 9 impone la gestione del rischio ai provider. L’Art. 13 impone trasparenza verso gli utenti. Entrambi proteggono le persone dal sistema. Nessuno protegge l’organizzazione attraverso il sistema da ciò che cede nell’atto stesso di usarlo.
Un’azienda che trasferisce quotidianamente la propria intelligenza collettiva a un modello cloud non viola nessuna norma dell’AI Act. Non perché la norma sia permissiva, ma perché quel rischio specifico non è nel suo campo visivo.
Cosa tutela (e cosa non tutela) la Trade Secrets Directive
La Trade Secrets Directive – Direttiva UE 2016/943, recepita in Italia con D.Lgs. 63/2018 – potrebbe in teoria tutelare il capitale cognitivo aziendale, ma presuppone un atto di consapevolezza attiva che quasi nessuna organizzazione compie: la classificazione formale del know-how come segreto industriale, la sua mappatura esplicita, la sua protezione deliberata, anche ai sensi dell’art. 99 Codice della Proprietà Industriale. Il capitale cognitivo di cui parliamo non è in nessun documento classificato ma vive nel modo in cui le persone pensano, nella sedimentazione tacita di competenze mai scritte da nessuna parte. E ciò che non è stato formalizzato non può essere tutelato, nemmeno in teoria.
GDPR, security, AI Act: tre scudi che lasciano scoperto l’essenziale
Dunque, come detto, il GDPR presidia il dato come informazione sull’individuo; la security presidia il dato aziendale dall’accesso non autorizzato; l’AI Act presidia il sistema AI come vettore di danno sociale. Nessuno presidia l’intelligenza collettiva dell’organizzazione come bene strategico che si erode nell’uso ordinario, senza attacchi, senza violazioni, semplicemente attraverso l’utilizzo.
Il capitale cognitivo non è semplicemente conoscenza aziendale: è l’infrastruttura decisionale implicita dell’organizzazione, e come tale deve essere governato con la stessa disciplina con cui oggi governiamo dati, sicurezza e sistemi informativi di terzi. Questo non è un difetto di esecuzione normativa. È un difetto di categoria.
Da dove iniziare: classificare i prompt per livello cognitivo
Il rischio non è domani ma é oggi, in ogni prompt che un professionista formula credendo di aver già fatto tutto il necessario rimuovendo i nomi dal documento.
Quindi da dove iniziare per porre riparo.
Attendere il legislatore non appare una strategia visto che i cicli normativi europei si misurano in anni, l’adozione dell’AI in mesi.
Un primo passo concreto è classificare le interazioni con i sistemi AI per livello cognitivo: distinguere quelle che elaborano dati grezzi da quelle che contengono framework decisionali, metodologie proprietarie, logiche di analisi costruite nel tempo. È una distinzione semplice, operativa, che non richiede tecnologia aggiuntiva – richiede consapevolezza. Ed è esattamente la consapevolezza che oggi manca.
Il GDPR ha insegnato all’Europa che i dati personali meritano tutela istituzionale. La security ha insegnato alle aziende che i dati operativi si difendono come asset. È tempo di riconoscere che il pensiero – il modo in cui un’organizzazione trasforma entrambi in intelligenza – merita la stessa serietà e che nessuno, oggi, gliela sta garantendo.













