La compliance non riguarda più solo “rispettare le regole”: oggi significa anche dimostrare, con procedure e documenti, di averle rispettate.
Con l’intelligenza artificiale la sfida cresce, perché molti sistemi sono difficili da capire e le responsabilità si distribuiscono tra tanti attori. L’AI Act prova a mettere ordine, ma riapre una domanda: basta essere conformi, o serve anche essere etici?
Indice degli argomenti
Compliance dell’intelligenza artificiale: perché oggi è un paradigma
Il termine compliance – dall’inglese to comply, conformarsi – ha subito negli ultimi tre decenni un processo di inflazione semantica che ne ha progressivamente ampliato e, al contempo, sfocato il perimetro concettuale. Da nozione tecnico-giuridica circoscritta all’ambito del diritto societario e bancario, la compliance è divenuta categoria omnicomprensiva che attraversa diagonalmente ambiti normativi eterogenei: dalla protezione dei dati personali alla prevenzione del riciclaggio, dalla sicurezza sul lavoro alla responsabilità sociale d’impresa, fino a cristallizzarsi, nell’epoca dell’intelligenza artificiale, come esempio regolatorio dominante.
Questa polisemia non è casuale né innocente. Essa riflette, come ha magistralmente mostrato Michel Foucault nella sua genealogia delle pratiche di governo, l’emergere di una razionalità politica specifica – quella neoliberale – che trasforma il diritto da sistema di comandi eteronomi in dispositivo di autoregolazione responsabilizzante. La compliance, in questa prospettiva, non è mera obbedienza alla norma, ma interiorizzazione della normatività: il soggetto (individuale o collettivo) è chiamato non solo a rispettare la regola, ma a farsi imprenditore di sé stesso, a calcolare rischi, a implementare procedure, a documentare diligenze, a dimostrare – secondo la logica dell’accountability – di essere conforme.
Quando questo paradigma incontra l’intelligenza artificiale, la complessità si moltiplica esponenzialmente. L’IA, infatti, non è semplicemente un oggetto da regolare tra gli altri. È, come ha argomentato Luciano Floridi, un’ontological force – una forza ontologica che rimodella il tessuto stesso della realtà in cui viviamo, le nostre relazioni sociali, i nostri processi cognitivi, i nostri sistemi di valore. La AI compliance diviene, così, non solo questione normativa, ma interrogativo filosofico: come si può essere conformi a qualcosa che sfida le categorie tradizionali di causalità, intenzionalità, responsabilità?
Metodologia e struttura dell’indagine
Come detto, il presente contributo adotta una metodologia “genealogica” ispirata al lavoro di Foucault. L’obiettivo non è fornire una definizione univoca e statica di compliance, quanto, piuttosto, tracciare le linee di forza, i nodi problematici, le tensioni irrisolte che attraversano questo concetto quando applicato al dominio dell’intelligenza artificiale.
L’indagine procede per cerchi concentrici. Nel secondo capitolo, si propone una ricostruzione del concetto di compliance, dalle sue radici nel diritto anglosassone fino alla sua attuale configurazione nel contesto del Regolamento Generale sulla Protezione dei Dati e dell’Artificial Intelligence Act europeo. Il terzo capitolo affronta la dimensione semantica, distinguendo tra significante e significato della compliance nella letteratura giuridica, economica e filosofica. Il quarto capitolo esamina criticamente il paradigma della compliance AI, evidenziandone potenzialità e aporie. Il quinto capitolo propone una riconfigurazione etico-politica della compliance come spazio di agency responsabile. Il sesto capitolo, infine, offre alcune conclusioni provvisorie e linee di ricerca future.
Dalla lex mercatoria al GDPR
Le radici del concetto moderno di compliance affondano nella tradizione giuridica anglosassone, in particolare nel diritto societario e bancario americano del secondo dopoguerra.
Le origini: compliance come conformità tecnica
Il Securities Exchange Act del 1934 e le successive elaborazioni della Securities and Exchange Commission introdussero l’idea che le imprese non dovessero semplicemente astenersi da condotte illecite, ma dovessero attivamente implementare sistemi di controllo interno per prevenire violazioni normative.
Questa svolta rappresenta un passaggio cruciale da un modello di regolazione command-and-control a un modello di responsive regulation, per usare la felice espressione di Ian Ayres e John Braithwaite. Il diritto non si limita più a prescrivere o vietare comportamenti specifici, ma impone all’organizzazione di dotarsi di strutture, procedure e controlli che rendano la conformità normativa un processo continuo e auto-riflessivo, anziché un evento isolato e puntuale.
Questa evoluzione trova il suo apice nei cosiddetti Compliance Programs, codificati dalle Federal Sentencing Guidelines del 1991, che introducono l’idea che l’esistenza di un efficace programma di compliance possa costituire fattore attenuante della responsabilità penale dell’ente. Si afferma così una logica di scambio: l’organizzazione che si auto-disciplina, che dimostra di aver fatto tutto il ragionevolmente possibile per prevenire illeciti, merita un trattamento sanzionatorio più mite. La compliance diviene, hegelianamente, Aufhebung – superamento e conservazione insieme – del diritto punitivo classico.
L’accountability turn: dal GDPR all’AI Act
Il Regolamento (UE) 2016/679, meglio noto come GDPR, segna una cesura epistemologica nel modello della compliance. L’articolo 5, paragrafo 2, introduce il principio di accountability: il titolare del trattamento non è solo tenuto a rispettare i principi di protezione dei dati, ma deve essere «in grado di comprovare» tale rispetto.
Questa formulazione apparentemente tecnica nasconde un portato filosofico. Come ha notato Julie Cohen, l’accountability trasforma il soggetto giuridico in homo documentans: un essere la cui esistenza legale si misura nella capacità di produrre tracce, documenti, evidenze della propria conformità. Non basta più essere conformi; occorre dimostrare di esserlo. La realtà giuridica si scinde dalla realtà fattuale: ciò che conta non è tanto cosa si fa, ma cosa si può provare di fare e di aver fatto.
Questa logica raggiunge il suo zenith con il Regolamento (UE) 2024/1689 (AI Act), che costruisce un intero sistema di governance dell’intelligenza artificiale basato su obblighi di documentazione, valutazione, certificazione e monitoraggio. Per i sistemi ad alto rischio, il Capo III del Regolamento prevede requisiti dettagliatissimi: sistema di gestione dei rischi (art. 9), data governance (art. 10), documentazione tecnica (art. 11), logging automatico (art. 12), trasparenza (art. 13), supervisione umana (art. 14), accuratezza, robustezza e cybersicurezza (art. 15). La AI compliance diviene, così, un ecosistema complesso di pratiche, procedure, artefatti documentali che circondano e penetrano il sistema tecnico.
Ma qui si annida un quesito fondamentale. L’accountability presuppone la verificabilità: per dimostrare di essere conformi, occorre che la conformità sia ispezionabile, misurabile, controllabile. Ora, i sistemi di intelligenza artificiale – specialmente quelli basati su reti neurali profonde – sono caratterizzati da quella che Burrell ha chiamato opacity e che si declina in tre dimensioni: opacità intenzionale (segreti commerciali), opacità tecnica (analfabetismo specialistico), opacità intrinseca (complessità epistemica del modello).
Come si può essere accountable per qualcosa che non si comprende pienamente? Come si può documentare un processo decisionale che emerge da miliardi di pesi sinaptici il cui funzionamento sfugge anche ai progettisti del sistema? Questa tensione irrisolta tra esigenza di trasparenza e opacità algoritmica costituisce, a mio avviso, il nodo gordiano della AI compliance: un nodo che la normativa attuale tenta di sciogliere attraverso strumenti come le tecniche di Explainable AI, ma che rimane filosoficamente e tecnicamente problematico.
Semantica della compliance
Nel registro strettamente giuridico, la compliance mantiene una connotazione relativamente circoscritta: è la conformità dell’azione (individuale o organizzativa) alla norma giuridica applicabile.
Il significante giuridico (adempimento)
Questa definizione, apparentemente tautologica, nasconde, tuttavia, una serie di presupposti che meritano esplicitazione.
In primo luogo, la compliance giuridica presuppone la determinatezza della norma. Per essere conformi, occorre sapere a cosa conformarsi. Ma nell’ambito dell’intelligenza artificiale, come ha notato Hildebrandt, ci troviamo spesso di fronte a norme vaghe, ambigue, ricche di clausole generali («trasparenza», «equità», «spiegabilità») il cui contenuto è contestabile e contestato. La compliance diviene, in tal modo, esercizio interpretativo, negoziazione di significati tra regolatore e regolato, co-produzione della normatività.
In secondo luogo, la compliance giuridica si inscrive in una logica binaria: si è conformi o non conformi, tertium non datur. Ma questa logica binaria mal si adatta alla natura probabilistica e graduale dei sistemi AI. Un algoritmo di credit scoring può essere abbastanza equo? Un sistema di riconoscimento facciale può essere sufficientemente accurato? La AI compliance richiede l’accettazione di una logica fuzzy, di soglie di accettabilità, di trade-off tra valori in tensione.
Il significato economico (investimento)
Nel discorso economico-aziendale, la compliance subisce una traslazione semantica, poiché da obbligo giuridico viene intesa come investimento strategico. La letteratura manageriale è ricca di contributi che presentano la compliance non come costo, ma come value driver, fonte di vantaggio competitivo, elemento di differenziazione reputazionale.
Questa narrazione non è priva di verità. In mercati caratterizzati da asimmetrie informative, la certificazione di conformità può fungere da segnale di qualità nel senso di Spence: indica agli stakeholder (clienti, investitori, regolatori) che l’organizzazione è affidabile, che ha implementato processi robusti, che ha interiorizzato standard etici elevati. Ecco che la conformità diviene capitale reputazionale, asset intangibile che si accumula nel tempo e che può essere monetizzato in termini di accesso preferenziale a risorse, riduzione del costo del capitale, attrattività per talenti.
Tuttavia, questa lettura economicista della compliance nasconde un rischio: quello della strumentalizzazione. Se la compliance diviene mero strumento di massimizzazione del valore per gli azionisti, se è valutata esclusivamente in termini di cost-benefit analysis, allora l’impresa sarà tentata di fare compliance washing, ostentando conformità formale senza sostanza etica. Il caso Cambridge Analytica è emblematico: Facebook aveva programmi di compliance elaboratissimi sulla carta, ma nella pratica permetteva utilizzi massivi e problematici dei dati degli utenti.
La dimensione filosofica (ethos)
La filosofia morale offre una terza prospettiva sulla compliance, più radicale e problematica. Da Kant in poi, l’etica occidentale ha operato una distinzione fondamentale tra legalità e moralità: un’azione è legale se conforme alla norma esterna, è morale se compiuta per rispetto della legge morale interna. La conformità eteronoma – quella che obbedisce solo perché minacciata da sanzione – è per Kant moralmente vuota, espressione di eteronomia, non di autonomia.
Applicata al contesto della AI compliance, questa distinzione kantiana ci pone di fronte a un interrogativo: è possibile – e se sì, come – trasformare la compliance da mera legalità in genuina moralità? In altri termini, ci si chiede se sia possibile che le organizzazioni non si limitino a rispettare le norme sull’IA perché obbligate, ma perché hanno interiorizzato i valori che quelle norme sottendono: trasparenza, equità, accountability, rispetto della dignità umana.
Questa è la vera sfida etica della AI compliance: non produrre conformità meccanica, ma coltivare un ethos organizzativo – un’abitudine virtuosa, una disposizione stabile verso il bene che Aristotele chiamava ἕξις. Un’organizzazione dotata di ethos non ha bisogno di essere continuamente sorvegliata: fa la cosa giusta perché ha incorporato la giustizia nella sua struttura operativa, nei suoi processi decisionali, nella sua cultura.
Critica della AI compliance
Il primo nodo problematico della conformità alle norme sull’IA riguarda la questione della responsabilità.
L’aporia della responsabilità distribuita
Come ha sostenuto Luciano Floridi, i sistemi di intelligenza artificiale sono caratterizzati da distributed agency: un’agentività distribuita tra molteplici attori umani e non-umani. Il data scientist che progetta l’algoritmo, l’ingegnere che lo implementa, il product manager che lo integra nel servizio, l’utilizzatore finale che lo impiega, l’algoritmo stesso con i suoi processi di apprendimento autonomo: tutti questi soggetti contribuiscono causalmente all’output del sistema.
Ma la responsabilità giuridica tradizionale presuppone un agente individuale chiaramente identificabile, dotato di intenzionalità, in grado di prevedere e controllare le conseguenze delle proprie azioni. L’IA mina questi presupposti. Helen Nissenbaum ha coniato l’espressione many hands problem per descrivere questa situazione: quando molte mani toccano il processo, diventa difficile attribuire responsabilità, e questa difficoltà può generare un responsibility gap, uno iato di responsabilità in cui nessuno si sente davvero accountable.
La AI compliance si confronta, dunque, con una responsabilità in un sistema le cui decisioni emergono da interazioni complesse e imprevedibili. L’AI Act tenta di risolvere il problema attribuendo responsabilità chiare ai provider (fornitori) e ai deployer (utilizzatori) dei sistemi, ma questa soluzione rimane parziale, poiché cattura la dimensione giuridico-formale della responsabilità, non quella etico-sostanziale.
Il rischio della compliance performativa
Un secondo sofisma riguarda quella che potremmo chiamare la performatività della compliance. Nel senso di Austin e Searle, un enunciato performativo non descrive una realtà preesistente: la crea attraverso la propria enunciazione. Quando un’organizzazione dichiara di essere compliant, quando produce documentazione di conformità, quando ottiene certificazioni, non sta semplicemente rappresentando una realtà fattuale: sta performando la conformità.
Ciò comporta un rischio sottile, ma pervasivo: quello della reificazione procedurale. L’organizzazione può arrivare a credere di essere etica semplicemente perché ha implementato procedure etiche, di essere trasparente perché ha prodotto documenti sulla trasparenza, di essere responsabile perché ha nominato un responsabile. La forma sostituisce la sostanza, il significante sopprime il significato.
Questo fenomeno è stato acutamente analizzato da Morozov sotto l’etichetta di solutionism: la tendenza a ridurre problemi complessi e multidimensionali a questioni tecniche risolvibili mediante procedure standardizzate. La compliance rischia di diventare la quintessenza del solutionism: invece di interrogarsi sul se e sul perché di un sistema AI, ci si concentra ossessivamente sul come renderlo formalmente conforme.
La contropartita tra spiegabilità e accuratezza
Un terzo problema, di natura più tecnico-epistemologica, riguarda il noto trade-off tra spiegabilità e accuratezza dei modelli di machine learning. Come hanno dimostrato Rudin e altri, spesso i modelli più accurati sono i meno interpretabili: una rete neurale profonda può raggiungere performance straordinarie, ma rimane sostanzialmente una black box; un albero decisionale è perfettamente trasparente, ma ha capacità predittiva limitata.
Qui si incontra un dilemma etico genuino. Quando usiamo l’IA in ambiti ad alto impatto (diagnosi mediche, decisioni creditizie, giustizia predittiva), si deve privilegiare l’accuratezza (che può salvare vite, prevenire errori) o la spiegabilità (che garantisce trasparenza, accountability, possibilità di contestazione)? Non esiste una risposta univoca e la AI compliance deve necessariamente fare i conti con questa tensione.
L’AI Act riconosce implicitamente questo problema quando, all’articolo 13, richiede che i sistemi ad alto rischio siano progettati in modo da permettere agli utenti di interpretare l’output del sistema e utilizzarlo in modo appropriato, senza, però, specificare quale grado di interpretabilità sia sufficiente. Questa vaghezza normativa riflette, forse, non un difetto legislativo, ma una consapevolezza epistemologica: il diritto non può risolvere per via imperativa dilemmi che hanno natura strutturale e contestuale.
È possibile un’etica dell’agency responsabile?
Di fronte alle aporie evidenziate, si propone un cambio di passo: dalla compliance verso la integrity.
Dalla compliance alla integrity
Questo slittamento terminologico non è cosmetico, ma sostanziale. L’integrity, nel senso filosofico del termine, designa una virtù del carattere: la coerenza tra valori professati e azioni compiute, l’allineamento tra interno ed esterno, la wholeness (interezza) del soggetto morale.
Un’organizzazione dotata di integrity non si limita a obbedire alle regole perché minacciata da sanzioni, ma perché ha interiorizzato i principi che quelle regole incorporano. Ha trasformato l’eteronomia normativa in autonomia etica. Come argomenta Paine in un celebre articolo su Harvard Business Review, le organizzazioni fondate sull’integrity superano quelle fondate sulla mera compliance perché la prima genera impegno intrinseco, la seconda solo conformità estrinseca.
Applicato al contesto dell’intelligenza artificiale, questo significa progettare sistemi AI non solo by law (conformi alla legge), ma by design (intrinsecamente etici). Significa coltivare nelle organizzazioni una cultura in cui ogni sviluppatore si sente personalmente responsabile delle implicazioni etiche del codice che scrive, ogni manager interroga criticamente gli obiettivi di business alla luce dei valori fondamentali, ogni decisione è valutata non solo per la sua efficienza, ma per la sua giustizia.
L’AI ethics come pratica riflessiva
Il passaggio dalla compliance all’integrity richiede di concepire l’etica dell’IA non come insieme statico di principi astratti, ma come pratica riflessiva nel senso di Schön. Una pratica riflessiva è caratterizzata da un movimento continuo tra azione e riflessione, tra applicazione di regole e interrogazione critica di quelle regole, tra tecnica e giudizio.
Concretamente, questo significa istituire nelle organizzazioni spazi deliberativi – comitati etici multidisciplinari, workshop partecipativi con stakeholder, impact assessment collaborativi – in cui le implicazioni etiche dei sistemi AI possano essere discusse apertamente. Significa valorizzare voci diverse (tecniche, giuridiche, sociali, filosofiche) e trattare il dissenso non come intralcio, ma come risorsa epistemica.
Questo approccio si ispira alla tradizione della Diskursethik habermasiana: i principi etici validi sono quelli che possono ottenere il consenso di tutti i soggetti potenzialmente coinvolti in un discorso pratico razionale. Applicata all’IA, questa idea suggerisce che la legittimità di un sistema non deriva solo dalla sua conformità a norme preesistenti, ma dalla possibilità di giustificarlo discorsivamente di fronte a coloro che ne subiscono gli effetti.
La compliance come capability
Un’ultima riconfigurazione concettuale attinge all’approccio delle capabilities sviluppato da Amartya Sen e Martha Nussbaum. In questa prospettiva, ciò che conta eticamente non è solo il rispetto formale di regole, ma l’espansione delle capacità effettive degli individui di vivere vite che considerano degne di essere vissute.
Pensare la compliance AI come capability significa chiedersi se i sistemi di intelligenza artificiale ampliano o restringono le capacità delle persone, aumentano o riducono la loro autonomia decisionale, facilitano o ostacolano la loro partecipazione sociale. E, soprattutto, promuovono o minano la loro dignità?
Tale prospettiva orienta l’attenzione non tanto sulla conformità procedurale, quanto sull’impatto sostanziale dei sistemi AI sulla vita delle persone. Un algoritmo può essere perfettamente compliant con tutte le normative applicabili, ma se sistematicamente discrimina categorie vulnerabili, se restringe l’accesso a opportunità, se riduce spazi di scelta, allora è eticamente problematico, e nessuna certificazione di conformità può legittimare questa problematicità.
La compliance, ripensata come capability, diviene così non fine, ma mezzo per l’obiettivo più alto dell’espansione della libertà umana. E questo richiede, inevitabilmente, di andare oltre la mera legalità verso una responsabilità etica più profonda e impegnativa.
Conclusioni
Giunti al termine di questo percorso genealogico e critico, si può ritornare alla domanda iniziale con maggiore consapevolezza della sua complessità. Cosa significa essere conformi alle normative sull’intelligenza artificiale? Anzi, più radicalmente: che tipo di soggetto – individuale, organizzativo, sociale – viene costruito attraverso i dispositivi di AI compliance?
Si è visto come la compliance sia un concetto stratificato, attraversato da tensioni irrisolte. Sul piano giuridico, oscilla tra determinatezza normativa e vaghezza interpretativa. Sul piano economico, si presenta come investimento strategico, ma rischia la strumentalizzazione. Sul piano filosofico, incarna la tensione kantiana tra eteronomia e autonomia, tra legalità e moralità.
Nel contesto specifico dell’intelligenza artificiale, queste tensioni si amplificano perché l’opacità algoritmica sfida il principio di accountability, la responsabilità distribuita mina le categorie giuridiche tradizionali e il trade-off tra explainability e accuracy pone problemi etici di non poco conto. La performatività della compliance, quindi, rischia di trasformare la sostanza etica in teatro procedurale.
Tuttavia – e questa è la tesi conclusiva che si avanza – questi limiti non condannano necessariamente la compliance all’inefficacia. Al contrario, possono essere riconosciuti come spazi di possibilità: aperture per una riconfigurazione etico-politica del concetto stesso di conformità.
La compliance, ripensata come integrity, da obbligo eteronomo diviene impegno autonomo verso valori condivisi. Considerata come pratica riflessiva, si trasforma da applicazione meccanica di regole a esercizio di giudizio contestuale. Riesaminata come capability, si orienta all’espansione sostanziale della libertà umana.
Questa riconfigurazione richiede cambiamenti culturali profondi nelle organizzazioni: dalla logica del tick-the-box alla cultura dell’interrogazione critica; dalla responsabilità come liability (passività) alla responsabilità come response-ability (capacità di rispondere); dalla compliance come costo alla compliance come investimento in capitale etico.
Ma richiede anche, e forse soprattutto, un ripensamento della regolazione stessa. Il diritto dell’IA non può limitarsi a moltiplicare obblighi documentali e certificazioni formali. Deve creare infrastrutture abilitanti: sandbox regolamentari per la sperimentazione, standard tecnici condivisi per l’XAI, meccanismi di partecipazione degli stakeholder, incentivi per l’innovazione responsabile.
La AI compliance, insomma, può essere – deve essere – più di un esercizio burocratico. Può diventare occasione per una riflessione collettiva sul tipo di società che vogliamo costruire con e attraverso l’intelligenza artificiale. Può essere spazio di negoziazione tra efficienza ed equità, tra innovazione e precauzione, tra progresso tecnico e progresso morale.
In questo senso, la compliance non è il punto di arrivo, ma il punto di partenza, nella misura in cui porta con sé la domanda fondamentale che ogni organizzazione che sviluppa o utilizza deve porsi: stiamo facendo la cosa giusta nel modo giusto?
Solo quando la compliance sarà vissuta non come vincolo esterno, ma come espressione di un’identità etica collettivamente costruita e condivisa, solo allora si sarà trasformata la τέχνη algoritmica in saggezza pratica: in quella φρόνησις che Aristotele riconosceva come virtù intellettuale suprema, capacità di deliberare bene su ciò che è bene per l’uomo e per la πόλις.
Il contributo riporta l’intervento svolto durante i Laboratori professionalizzanti del Digeat Festival nel novembre 2025 a Lecce.
Bibliografia
1. M. Foucault, Naissance de la biopolitique: Cours au Collège de France (1978-1979), 2004, Paris.
2. L. Floridi, The fourth revolution: how the infosphere is reshaping human reality, 2014, Oxford.
3. J. C. Coffee, No soul to damn: no body to kick: an unscandalized inquiry into the problem of corporate punishment. Michigan Law Review, 1981.
4. I. Ayres & J. Braithwaite, Responsive regulation: transcending the deregulation debate, 1992, Oxford.
5. J.E. Cohen, between truth and power: the legal constructions of informational capitalism, 2019, Oxford.
6. J. Burrell, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, 2016, Big Data & Society.
7. M. Hildebrandt, Smart technologies and the end(s) of law: novel entanglements of law and technology, 2015, Cheltenham.
8. M.E. Porter & M.R. Kramer, Strategy and society: the link between competitive advantage and corporate social responsibility, 2006, Harvard Business Review.
9. M. Spence, Job Market Signaling, 1973, The quarterly journal of economics.
10. S. Zuboff, The age of surveillance capitalism: the fight for a human future at the new frontier of power, 2019, New York.
11. I. Kant, Groundwork of the metaphysics of morals, 1785, Cambridge.
12. Aristotele, Etica Nicomachea, IV sec. a.C.
13. L. Floridi & J.W. Sanders, On the morality of artificial agents, 2004, Minds and Machines.
14. H. Nissenbaum, Accountability in a computerized society, 1996, Science and Engineering Ethics.
15. J. L. Austin, Science and engineering ethics, 1962, Oxford.
16. E. Morozov, To save everything, click here: the folly of technological solutionism, 2013, New York.
17. C. Rudin, Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead, 2019, Nature Machine Intelligence.
18. B. Williams, Moral luck: philosophical papers 1973-1980, 1981, Cambridge
19. L. S. Paine, Managing for organizational integrity, 1994, Harvard Business Review.
20. D. A. Schön, The reflective practitioner: how professionals think in action, 1983, New York.
21. J. Habermas, Moralbewußtsein und kommunikatives Handeln, 1983, Frankfurt.
22. A. Sen, Development as freedom, 1999, New York.
23. M.C. Nussbaum, Creating capabilities: the human development approach, 2011, Cambridge.


















