sicurezza dei dati

Come gestire l’intelligenza artificiale in azienda: guida per dirigenti



Indirizzo copiato

L’intelligenza artificiale in azienda comporta rischi relativi alla sicurezza dei dati e alla protezione del know-how. Le organizzazioni necessitano di policy adeguate per garantire un utilizzo etico e conforme alla normativa

Pubblicato il 4 apr 2025

Martina De Angeli

Associate, De Luca & Partners



IA generativa in azienda digitalizzazione formazione aziendale IA nella PA Evoluzione dell'IA Regolamento IA aziendale capitalI nascosti AI generativa; cybersecurity manifatturiero

Quando un dipendente ricorre a sistemi di intelligenza artificiale – spesso generativa – per svolgere le proprie attività lavorative potrebbe, in maniera più o meno consapevole, condividere con soggetti esterni, e quindi non autorizzati, know-how aziendale e informazioni personali.

Intelligenza artificiale in azienda: definizione e diffusione

Vale, innanzitutto, la pena precisare che l’Intelligenza Artificiale generativa è una tipologia di tecnologia che impara dai contenuti esistenti per generarne di nuovi in base alle specifiche richieste del suo interlocutore (umano).

Negli ultimi anni, l’I.A. generativa è entrata nel quotidiano e il mondo del lavoro non ne è stato esente. Accade infatti con sempre maggior frequenza che i lavoratori utilizzino tali tecnologie per portare a termine le proprie attività e nel farlo immettano nei sistemi informazioni aziendali, anche sensibili, know-how aziendale ovvero dati personali e particolari. Spesso le aziende non sono informate o non sono consapevoli di tali pratiche e rischiano di essere esposte a importanti rischi – anche dal punto di vista della cybersicurezza – senza neppure esserne coscienti.

I rischi dell’intelligenza artificiale in azienda, spiegati dall’IA

Nel tentativo di rispondere a questo quesito, abbiamo voluto interpellare una delle parti direttamente coinvolte. Di seguito, per punti, i principali red flag legati all’adozione di I.A. generativa che lei stessa ci ha segnalato.

Secondo l’I.A., acconsentire a che i lavoratori utilizzino queste tecnologie potrebbe comportare per una società:

  • problematiche connesse alla governance e alla gestione della sicurezza informatica;
  • violazioni delle norme in materia di protezione dei dati personali;
  • commissione di comportamenti discriminatori derivanti dai pregiudizi (bias) contenuti nei dati con cui è stata addestrata;
  • eccessiva dipendenza dei lavoratori all’intelligenza artificiale che, nei casi più gravi, potrebbe causare un pericolo di riduzione delle capacità decisionali e critiche tipiche dell’essere umano.

Tutti spunti interessanti ai quali non si può non aggiungere anche il rischio di divulgazione di know-how aziendale e quindi di dispersione di informazioni sensibili per una azienda.

Protezione dell’azienda nell’era dell’intelligenza artificiale

Da queste brevi considerazioni, sorge spontaneo domandarsi come una società possa quindi proteggersi da tutti i rischi connessi ad un uso generalizzato, diffuso e non controllato dell’I.A. generativa da parte dei lavoratori.

In uno scenario che può intimorire e creare scetticismo, certamente la soluzione non può essere quella di impedire l’utilizzo di tali tecnologie che, al contrario, rappresentano sempre più un elemento per rimanere competitivi e contribuiscono allo sviluppo dell’azienda ma anche alla crescita delle sue risorse (umane).

Fondamentale diventa quindi imparare a farne un uso etico e consapevole.

Linee guida per l’intelligenza artificiale in azienda

  • È fondamentale non permettere che i dipendenti ricorrano all’I.A. senza regolamentarne internamente l’utilizzo e fornire loro specifici training, linee guida e best practices. Investire in formazione, in sistemi di sicurezza solidi e in politiche di gestione del cambiamento per garantire che l’adozione dell’I.A. porti vantaggi reali senza però compromettere la sicurezza, l’integrità o la cultura aziendale è una esigenza di primaria importanza.
  • La compliance di una azienda, la sua sicurezza informatica, la tutela del suo patrimonio e del suo know how nonché la sua reputazione non possono più permettersi di non considerare che i dipendenti ricorrono con sempre maggior frequenza a tool di I.A. generativa per portare a termine le proprie attività lavorative.
  • L’adozione di policy, regolamenti o linee guida aziendali è una misura di sicurezza finalizzata a proteggere quanto più possibile il patrimonio aziendale, garantire la tutela dei dati personali e dimostrare accountability.

Responsabilità e compliance nell’uso dell’intelligenza artificiale in azienda

Proprio tenendo in considerazione l’appena menzionato principio di accountability, infatti, è doveroso precisare che una errata gestione delle informazioni personali – compresa, ad esempio, la diffusione o la comunicazione delle stesse a soggetti terzi non autorizzati – espone un’azienda al rischio di incorrere in una o più delle violazioni previste dalla normativa privacy.

Ecco come diventa fondamentale per una organizzazione studiare, definire e implementare politiche, regolamenti, linee guida aziendali per una gestione etica e consapevole delle IA ma anche per essere pienamente conformi ai dettami normativi ed essere tutelati dal rischio di incorrere in una o più delle violazioni previste.

Un’organizzazione è responsabile delle proprie azioni, decisioni e performance non solo nei confronti dell’ordinamento giuridico ma anche nei confronti dei suoi stakeholder – siano essi dipendenti, clienti, azionisti, fornitori.

Una – ormai inevitabile – implementazione dell’intelligenza artificiale che sia guidata, responsabile e consapevole, con una supervisione attenta delle sue applicazioni, può rappresentare la chiave affinché i benefici e i vantaggi superino quelli che possono essere i rischi.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati