Le imprese stanno usando l’AI generativa per guadagnare produttività, ma spesso ignorano il costo strategico di ciò che riversano nei prompt: linguaggio interno, criteri decisionali, procedure, tassonomie, memoria operativa. Il problema, quindi, non è solo la privacy né solo la cybersecurity, è la tutela del capitale cognitivo.
Oggi GDPR, NIS2 e AI Act non offrono una protezione organica dei prompt come asset, per questo la strada più solida passa da trade secret, governance e architetture controllate, soprattutto quando il know-how vive in prompt strategici e sistemi AI.
Indice degli argomenti
Perché i prompt strategici non sono input qualsiasi
La questione di fondo è che molte aziende gestiscono i prompt come materiale transitorio: una riga scritta al volo per farsi aiutare da un modello. È un errore (grave) di lettura. In molti casi il prompt non è un semplice input, ma una compressione di metodo poiché contiene criteri di valutazione, sequenze di lavoro, eccezioni operative, formule di classificazione, istruzioni redazionali, lessico specialistico. Dentro un prompt ben costruito può esserci una porzione reale del know-how aziendale.
Il punto, dunque, non è teorico. L’adozione dell’AI generativa accelera perché produce benefici misurabili. Per esempio, in compiti professionali di scrittura, uno studio pubblicato su Science [1] ha rilevato una riduzione media del 40% del tempo di esecuzione e un aumento del 18% della qualità dell’output, ma la produttività è solo la parte visibile del fenomeno mentre quella invisibile è la progressiva esternalizzazione della grammatica cognitiva dell’impresa.
Quando i prompt strategici diventano un asset aziendale
La conseguenza è semplice: non tutti i prompt hanno valore strategico, ma alcuni sì, e molto. Hanno valore quando incorporano procedure proprietarie, logiche decisionali non pubbliche, criteri di audit, metodi di due diligence, istruzioni commerciali, tassonomie di settore o formule di valutazione interne: in questi casi il prompt non è più un accessorio del software, è invece una forma cristallizzata di conoscenza organizzativa.
La conseguenza manageriale è evidente: i prompt non vanno trattati tutti allo stesso modo. Esistono prompt generici, replicabili e sostituibili, come esistono prompt operativi, utili ma non critici. Esistono però prompt strategici, cioè quelli che condensano metodo, memoria, vantaggio competitivo e linguaggio distintivo dell’organizzazione. In assenza di una gestione strutturata di questa classificazione, non si può parlare di governance dell’AI, ma soltanto di un utilizzo diffuso di strumenti generativi.
I limiti della proprietà intellettuale sui prompt
Dunque non basta che un prompt sia utile per farne un bene giuridicamente protetto e non basta aver scritto un prompt sofisticato per poter parlare, con leggerezza, di proprietà intellettuale.
Sul terreno del copyright, per esempio, il quadro è molto meno favorevole di quanto si pensi. Il U.S. Copyright Office ha chiarito che, allo stato attuale della tecnologia, i prompt da soli non attribuiscono all’utente un controllo sufficiente sull’espressione finale da fondare automaticamente l’autorialità dell’output generato [2]. Anche un eccesso all’opposto è sbagliato: proteggere tutto indistintamente, se ogni prompt viene trattato come segreto assoluto, l’azienda non protegge il know-how: produce burocrazia, attrito e confusione, la tutela vera non nasce dall’assolutizzazione, ma dalla selezione.
La domanda non è “che cosa passa in un prompt?”, ma “che cosa, se esce, impoverisce davvero il vantaggio competitivo dell’impresa?”.
Il vuoto normativo sui prompt strategici
C’è dunque, in oggi, un vuoto che va riconosciuto senza ipocrisie. Il GDPR tutela il dato personale e, all’articolo 22, disciplina le decisioni basate esclusivamente su trattamenti automatizzati che incidono in modo significativo sulla persona, è una tutela importante, ma non è una disciplina del capitale cognitivo d’impresa. Non protegge, in quanto tale, i prompt strategici, la memoria dialogica, le istruzioni interne o le tassonomie proprietarie.
La NIS2 rafforza la resilienza cyber, i requisiti di sicurezza, la gestione del rischio e gli obblighi di notifica. Ma resta, correttamente, una normativa di cybersecurity che non attribuisce diritti di proprietà sui prompt e non governa la titolarità del know-how espresso nei sistemi generativi.
L’AI Act introduce obblighi di documentazione, trasparenza, governance e controllo del rischio, con un impianto molto più robusto di quello che molti operatori vogliono ammettere ma non istituisce una categoria autonoma di proprietà del “capitale cognitivo” aziendale. Ad oggi, dunque, la tutela è quella del know-how ma da sola potrebbe non bastare, andrebbe rinforzata. In questo senso potrebbe aiutare la Direttiva UE 2016/943 in materia di segreto commerciale che stabilisce tre condizioni cumulative per la tutela: l’informazione deve essere segreta, avere valore commerciale proprio perché segreta, ed essere protetta con misure ragionevoli. Questo schema potrebbe adattarsi bene ai prompt strategici, ma a una condizione: che l’impresa li tratti davvero come know-how protetto e non come testo disperso in interazioni casuali.
Trade secret, prova della tutela e misure ragionevoli
La WIPO (World Intellectual Property Organization) lo dice in modo pragmatico [3]: non basta dichiarare che un’informazione è preziosa, bisogna dimostrare di averla custodita, in concreto significa repository governati, restrizioni di accesso, policy di riuso, NDA, logging, tracciabilità, segregazione per ruoli, controllo dei flussi e delle copie. La tutela del trade secret non è una formula di stile ma è una pratica probatoria. In questo senso va anche l’art. 99 del Codice della proprietà Intellettuale.
Perché i prompt strategici espongono un rischio concreto
Il rischio, è strategico. Reuters ha documentato un uso ampio di strumenti come ChatGPT nei luoghi di lavoro [4], spesso in assenza di una policy aziendale chiara, e il caso Samsung ha reso evidente il problema del caricamento di contenuti sensibili su piattaforme esterne. La sequenza tipica è sempre la stessa: prima l’adozione, poi l’incidente, solo dopo la governance. È una sequenza comoda, ma sbagliata.
Anche i dati macro vanno letti con freddezza, BCG [5] rileva che solo il 26% delle imprese ha sviluppato davvero le capacità necessarie per andare oltre i proof of concept e generare valore tangibile, mentre il 74% fatica ancora a scalarlo. La produttività dell’AI è reale, ma il vantaggio competitivo non nasce automaticamente dall’adozione, senza governo, la velocità operativa può convivere con una progressiva perdita di controllo sul proprio patrimonio cognitivo.
Come qualificare, proteggere e capitalizzare i prompt strategici
La sintesi è meno spettacolare della tesi estrema, ma molto più forte. Un prompt non è automaticamente proprietà intellettuale; non è neanche automaticamente segreto commerciale e non è automaticamente asset. Diventa un asset quando l’impresa fa tre cose che oggi quasi nessuno fa in modo sistematico: lo qualifica, lo protegge e lo capitalizza.
Qualificare significa distinguere il prompt generico da quello proprietario, proteggere significa introdurre misure ragionevoli dimostrabili e capitalizzare significa trasformare le interazioni di valore in memoria aziendale: librerie di prompt, workflow, knowledge base, sistemi di retrieval, criteri di revisione, governance documentata.
Full on premise e sovranità del flusso cognitivo
Una soluzione realmente full on premise non risolve ogni profilo di sicurezza e non sostituisce la governance interna, però cambia radicalmente il rischio di trasferimento. Se il know-how vive in prompt gestiti da un LLM interno, senza transito verso API o piattaforme esterne, quel sapere non alimenta il capitale cognitivo del fornitore, resta nel perimetro aziendale. Questa non è una promessa assoluta di sicurezza però è una tesi architetturale sulla sovranità del flusso cognitivo. Ma anche qui va evitata la scorciatoia concettuale, “interno” non significa automaticamente “capitalizzato”. Un LLM aziendale cresce davvero solo se esiste una catena di valorizzazione: logging utile, repository, classificazione, riuso, revisioni periodiche, knowledge base, eventualmente fine-tuning controllato. Senza questi passaggi, l’on premise impedisce il trasferimento verso terzi, ma non trasforma automaticamente il sapere in asset cumulativo.
La governance dei prompt strategici come priorità manageriale
Se si vuole uscire dal dilettantismo, il primo passo non è comprare un altro tool è costruire un perimetro di governo. Qui ISO/IEC 42001 è utile non come bollino, ma come disciplina: ruoli, responsabilità, politiche, monitoraggio, miglioramento continuo. Il NIST AI RMF aggiunge un elemento decisivo [6]: la gestione dei rischi di terza parte, la documentazione dei controlli, la trasparenza e il monitoraggio dei sistemi AI lungo il loro ciclo di vita.
In pratica, questo significa almeno sei passaggi: classificare i prompt critici, stabilire dove possono e non possono essere usati, creare repository governati, introdurre controllo degli accessi, tracciare le interazioni sensibili e definire regole chiare di retention, audit e riuso. Tutto il resto viene dopo.
La domanda che ogni impresa deve farsi sui prompt strategici
Qual è dunque la domanda finale che un manager dovrebbe farsi? La domanda non è se i prompt abbiano valore, in molti casi ce l’hanno già. La domanda è: l’impresa li sta trattando come una forma riconosciuta, protetta e cumulabile di know-how, oppure li sta lasciando evaporare dentro strumenti efficienti ma cognitivamente estrattivi?
Perché il rischio, alla fine, è questo: inseguire la produttività e perdere sovranità e la sovranità, quando si perde davvero, non si ricostruisce con un upgrade di licenza.
Note
[1] Science, Experimental evidence on the productivity effects of generative artificial intelligence
https://www.science.org/doi/10.1126/science.adh2586
[2] U.S. Copyright Office, Copyright and Artificial Intelligence, Part 2: Copyrightability
https://www.copyright.gov/ai/Copyright-and-Artificial-Intelligence-Part-2-Copyrightability-Report.pdf
[3] WIPO, Trade Secrets Protection
https://www.wipo.int/en/web/trade-secrets/protection
[4] Reuters, ChatGPT fever spreads to US workplace, sounding alarm for some
https://www.reuters.com/technology/chatgpt-fever-spreads-us-workplace-sounding-alarm-some-2023-08-11/
[5] Boston Consulting Group, AI Adoption in 2024: 74% of Companies Struggle to Achieve and Scale Value
https://www.bcg.com/press/24october2024-ai-adoption-in-2024-74-percent-of-companies-struggle-to-achieve-and-scale-value
[6] NIST, AI Risk Management Framework (AI RMF 1.0)
https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf














