scenari

IA, manager in prima linea: come governare il superumano in azienda



Indirizzo copiato

Le tecnologie di superumanesimo promettono di potenziare capacità cognitive e fisiche umane attraverso IA, biotecnologie ed editing genetico. Ma rischiano di creare nuove discriminazioni tra chi accede al miglioramento e chi resta escluso

Pubblicato il 17 set 2025

Antongiulio Lombardi

Esperto di diritto e tecnologia



studio mit AI aziende superumanesimo

Negli ultimi decenni, la convergenza tra intelligenza artificiale, neurotecnologie, biotecnologie ed editing genetico ha dato origine a un nuovo paradigma che ridefinisce l’essere umano nei suoi limiti e nelle sue potenzialità.

Si parla, in questo contesto, di superumanesimo (human enhancement technologies), inteso come l’insieme di pratiche scientifiche e tecnologiche che mirano non solo a curare o riparare, ma a potenziare l’uomo, estendendone le capacità cognitive, fisiche, sensoriali e persino morali.

Le fondamenta del potenziamento umano

L’interesse crescente verso tali tecnologie è giustificato dalla possibilità di affrontare sfide antiche – come l’invecchiamento, la disabilità, la limitatezza delle prestazioni mentali – attraverso strumenti radicalmente nuovi. Interventi come l’editing genomico con CRISPR-Cas9, le protesi neurali, l’integrazione cervello-macchina, i farmaci cognitivi e l’uso di algoritmi predittivi nei processi decisionali aprono scenari inediti di sviluppo umano.

Come ha osservato Nick Bostrom, tra i principali teorici del potenziamento umano, “la possibilità di scegliere il tipo di mente che vogliamo avere rappresenta una nuova forma di libertà” (Enhancing Humans, 2003). Tuttavia, la promessa del superumanesimo non può essere disgiunta dai rischi sistemici che esso comporta, né dalle implicazioni antropologiche e politiche che solleva.

Rischi e opportunità dell’enhancement tecnologico

Il rischio principale rimane sicuramente quello di arrivare a una discriminazione tra chi ha accesso alle tecnologie di HET e riesce a “migliorarsi” e chi non accede a tali possibilità non solo per ragioni economiche ma anche culturali, sociali e morali.

L’opportunità maggiore è quella di poter migliorare le proprie prestazioni senza rinunciare alla umanità, alla propria esperienza che riuscirà a rendere unica e personale la possibilità di enhancement offerta dall’intelligenza artificiale.

L’IA così personalizzata potrà continuare ad analizzare la realtà, gli input, attraverso internet e oracles mentre dormiamo o siamo occupati in altro, dandoci a valle della sua attività una valutazione di ciò che ci interessa in linea con le nostre aspettative.

In questa ottica l’opacità della decisione algoritmica perde rilevanza e diventa centrale la decisione dell’umano, l’unico in grado grazie alla sua esperienza di dare una valutazione completa dell’esito dell’analisi dell’IA.

Potenzialità e ambivalenze delle tecnologie di potenziamento

Le tecnologie di potenziamento si muovono su un terreno liminale tra cura e miglioramento, tra riparazione del danno e superamento del limite. Se da un lato esse possono portare a un reale aumento della qualità della vita – pensiamo al recupero motorio tramite protesi neurali o esoscheletri o al supporto cognitivo in persone affette da disturbi neurodegenerativi – dall’altro rischiano di aprire la strada a una nuova normalità della prestazione, in cui ciò che è potenziato diventa la nuova soglia della normalità.

Un secondo punto critico riguarda l’accesso diseguale a queste tecnologie. In assenza di regolamentazioni eque, si profila un futuro in cui pochi avranno accesso a potenziamenti avanzati, mentre la maggior parte resterà esclusa. Harari ha descritto tale possibile scenario come una “biologia del privilegio”, in cui “una nuova élite potenziata sarà biologicamente diversa e superiore agli esseri umani ordinari” (Homo Deus, 2015). Tale evento

In parallelo, le tecnologie dell’IA e delle neuroscienze, soprattutto se integrate in ambiti lavorativi e decisionali, pongono interrogativi cruciali sulla libertà individuale, sulla trasparenza algoritmica e sulla sorveglianza permanente (Zuboff, 2019). Il rischio, come ha notato Stephen Hawking, è che queste stesse tecnologie possano trasformarsi da strumenti di emancipazione a strumenti di controllo, se non opportunamente governate.

Il ruolo trasformativo del management

In questo contesto, la figura del manager assume una responsabilità strategica ed etica di primo piano. L’adozione dell’intelligenza artificiale e delle tecnologie di potenziamento nei contesti organizzativi non è neutrale: comporta scelte di valore, di visione e di impatto umano. Il manager contemporaneo è chiamato non solo a implementare strumenti tecnologici, ma a governare il senso del loro impiego, valutando conseguenze sociali, culturali ed epistemiche.

Per farlo, è necessario un cambiamento di paradigma: da gestore operativo a intellettuale critico dell’innovazione. In questa prospettiva, le competenze tradizionali della leadership (efficienza, controllo, obiettivi) devono essere integrate da competenze etiche, filosofiche e sistemiche, capaci di cogliere la profondità delle trasformazioni in atto.

Luciano Floridi propone, in tal senso, l’idea di una “responsabilità info-etica” che guidi le scelte in ambito tecnologico: “non si tratta di rallentare il progresso, ma di orientarlo verso finalità inclusive e sostenibili” (The Ethics of Information, 2013).

Luddismo e Frame Breaking: memoria storica di un conflitto irrisolto

Per comprendere appieno la portata del momento storico attuale, può essere utile tornare indietro nel tempo, all’Inghilterra di fine Settecento, durante la prima rivoluzione industriale. In quel periodo, i luddisti distruggevano le macchine tessili che minacciavano la sopravvivenza del lavoro artigiano. Il gesto, spesso interpretato come retrogrado, era in realtà una forma di protesta contro un’innovazione vissuta come imposta e disumanizzante.

La reazione politica non fu il dialogo, bensì la repressione: con il Frame Breaking Act del 1812, il governo britannico stabilì la pena di morte per chi distruggeva le macchine. L’innovazione tecnologica venne difesa, ma al prezzo di ignorare le esigenze di riconoscimento e giustizia sociale che quelle proteste esprimevano. La norma che non fu mai applicata ma sostituita dalla deportazione in Australia rimane un esempio chiaro di disciplina sbagliata.

Oggi, il rischio non è tanto la distruzione delle macchine, quanto il rifiuto culturale, morale e lavorativo del cambiamento. Un nuovo luddismo, meno visibile ma non meno profondo, potrebbe manifestarsi attraverso disoccupazione tecnologica, sfiducia nei confronti dell’automazione, polarizzazione del mercato del lavoro, fino alla perdita di senso delle professioni.

Anche in questo caso, il compito dei manager non è solo tecnico: è politico e culturale. Essi devono saper mediare tra innovazione e inclusione, progettare scenari di convivenza tra umani e sistemi intelligenti, e soprattutto evitare che l’adozione tecnologica produca nuove forme di esclusione e alienazione.

Le sfide future del superumanesimo

Le tecnologie del superumanesimo rappresentano una delle sfide più complesse e affascinanti del nostro tempo. Esse offrono la possibilità di espandere le capacità umane oltre ogni precedente limite storico, ma pongono anche interrogativi radicali sul significato dell’essere umano, sulla giustizia sociale e sulla responsabilità collettiva.

In questo scenario, il manager è chiamato a un ruolo inedito: non solo promotore dell’innovazione, ma custode del senso dell’umano. Solo attraverso una visione riflessiva, etica e storicamente consapevole sarà possibile evitare che la promessa del potenziamento si trasformi in una nuova forma di esclusione.

Il futuro non dipenderà tanto dalla tecnologia in sé, quanto dal quadro di valori con cui sceglieremo di utilizzarla. E il management sarà, inevitabilmente, uno dei nodi decisivi di questa scelta.

Bibliografia

BBC Interview (2014). Stephen Hawking: “AI could spell the end of the human race”.

Bostrom, N. (2003). Enhancing Humans. Oxford Future of Humanity Institute.

Floridi, L. (2013). The Ethics of Information. Oxford University Press.

Fukuyama, F. (2002). Our Posthuman Future: Consequences of the Biotechnology Revolution. Farrar, Straus and Giroux.

Harari, Y. N. (2015). Homo Deus: A Brief History of Tomorrow. Harvill Secker.

Kurzweil, R. (2005). The Singularity Is Near: When Humans Transcend Biology. Viking Press.

Zuboff, S. (2019). The Age of Surveillance Capitalism. PublicAffairs.

Parlamento del Regno Unito (1812). Frame Breaking Act. UK National Archives.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati