Il dibattito globale sull’intelligenza artificiale (IA) ha trasceso la mera questione tecnologica per diventare una riflessione profonda sulla governance e sul ruolo dell’uomo in un’era di crescente automazione. Il concetto di “Codice del Futuro” non si materializza in un singolo documento, ma in un ecosistema globale e in continua evoluzione di normative (come l’EU AI Act) e principi etici (promossi da enti come l’UNESCO e l’OECD).
Analizziamo questo corpus emergente, focalizzandoci sulle specifiche, sulle intenzioni e, in particolare, sul ruolo insopprimibile dell’uomo.
Si vuole dimostrare che le specifiche normative, fondate su un approccio di gestione del rischio, mirano a tradurre le intenzioni etiche in obblighi concreti al fine di governare questa tecnologia. Tuttavia, si vuole anche mettere in risalto una tensione costante tra la rapidità esponenziale dello sviluppo tecnologico e la lentezza intrinseca dei quadri normativi, oltre a un dibattito acceso sul grado di controllo che l’essere umano può e deve mantenere sui sistemi autonomi. La breve disamina infine illustra come il futuro dell’IA non sia predeterminato, ma dipenda in larga misura dalla nostra capacità di guidarla in modo consapevole e responsabile, integrando l’intelligenza umana con le capacità analitiche delle macchine. La discussione si conclude con un’analisi delle sfide aperte, fornendo raccomandazioni per sviluppatori, legislatori e utenti auspicando che l’innovazione tecnologica si allinei con i valori umani fondamentali.
Indice degli argomenti
La necessità di un ‘Codice del Futuro’: dai principi etici ai quadri normativi.
L’intelligenza artificiale non è più una tecnologia di nicchia, ma un motore globale di crescita e progresso che sta trasformando radicalmente il modo in cui le attività umane vengono svolte. Con l’avvento di modelli generativi come ChatGPT alla fine del 2022, l’IA ha superato i confini della mera automazione per entrare nel regno della creatività e del processo decisionale, sollevando interrogativi più complessi nel panorama mediatico e professionale. L’obiettivo dichiarato dell’IA è di creare computer capaci di pensare e agire come gli esseri umani, un traguardo che si basa su tre componenti chiave: sistemi di calcolo, dati e sistemi per la gestione dei dati, e algoritmi avanzati (il “codice”). La rapida evoluzione di queste componenti ha reso evidente la necessità di un quadro etico e normativo per guidarne lo sviluppo.
La necessità di un “codice” emerge dalla crescente consapevolezza che l’IA non è un’innovazione neutra, ma una tecnologia che opera su scala e velocità senza precedenti, ridefinendo il potere e le sue dinamiche. A differenza di altre discipline con limiti fisici, l’informatica e l’IA sono immateriali e possono espandersi rapidamente, con il solo limite dell’immaginazione. Questa caratteristica ha sollevato profonde domande su come il potere venga esercitato, da chi e in base a quale investitura. La tecnologia rischia di marginalizzare il controllo democratico e sfidare le nostre nozioni di diritti, libertà, lavoro e mercati.
Per questo motivo, il “Codice del Futuro” si configura non solo come un insieme di regole tecniche, ma come un’architettura sociale e politica volta a governare questa nuova interfaccia tra istituzioni e individui, garantendo che l’innovazione serva la prosperità umana, piuttosto che minacciarla. Aziende all’avanguardia come Bosch hanno riconosciuto questa esigenza prima ancora che venissero introdotte normative vincolanti, stabilendo codici etici basati sui valori sanciti dalla Dichiarazione Universale dei Diritti Umani. Similmente, l’Unione Europea, in un approccio olistico e sistemico, ha stabilito l’esigenza di garantire “un elevato livello di protezione dei dati, diritti digitali e norme etiche” nello sviluppo di queste pervasive e potenti tecnologie.
Il concetto di “IA affidabile” (trustworthy ai) e i suoi pilastri fondamentali
In risposta alla complessità e ai rischi associati all’IA, il Gruppo di Esperti ad Alto Livello sull’IA dell’UE ha elaborato un quadro per l'”IA affidabile” (Trustworthy AI), basato su tre pilastri interconnessi: la liceità, l’eticità e la robustezza.
La liceità richiede che i sistemi di IA ottemperino a tutte le disposizioni legislative e regolamentari applicabili.
L’eticità impone il rispetto dei principi e dei valori morali.
Infine, la robustezza richiede che i sistemi siano sicuri e affidabili sia da un punto di vista tecnico che sociale. L’approccio riconosce che il semplice rispetto della legge non è sufficiente a garantire un uso benefico dell’IA, in quanto il diritto spesso non è al passo con gli sviluppi tecnologici e non è sempre adeguato ad affrontare determinate questioni etiche.
Questa interdipendenza tra i tre pilastri rivela che l’etica non è un semplice complemento, ma un elemento essenziale che guida lo sviluppo prima che il diritto possa codificarlo. L’approccio del “Codice del Futuro” riconosce che la mera conformità legale non garantisce un uso benefico dell’IA; è necessario un impegno etico costante e una robustezza tecnica per prevenire danni non intenzionali. La logica è che un sistema di IA, anche se sviluppato con le migliori intenzioni, può causare danni non voluti, e la robustezza serve a minimizzarli. In questa prospettiva, l’IA non è un fine in sé, ma un mezzo promettente per “aumentare la prosperità umana” e contribuire a obiettivi di sviluppo sostenibile.
Panoramica sui principali framework globali e principi aziendali.
Il “Codice del Futuro” è un fenomeno di consenso internazionale, con principi che convergono a livello globale, pur con implementazioni e approcci specifici. Tra i principali framework, si distinguono:
- L’Unione Europea: il quadro etico, che ha fornito la base per l’EU AI Act, ha definito sette requisiti fondamentali per un’IA affidabile (descritti in dettaglio più avanti). L’obiettivo è bilanciare l’innovazione con la protezione dei diritti e dei valori fondamentali.
- L’UNESCO: la “Raccomandazione sull’Etica dell’IA,” adottata da 193 Stati membri, promuove obiettivi come l’equità, l’inclusione, la preservazione del ruolo umano, l’alfabetizzazione digitale e la sostenibilità ambientale.
- L’OECD: i principi dell’OECD promuovono un’IA innovativa e affidabile, che rispetti i diritti umani e i valori democratici. Essi pongono l’accento sulla crescita inclusiva, sulla trasparenza, sulla robustezza e sulla responsabilità.
- Le aziende: Le principali aziende tecnologiche hanno sviluppato i propri codici etici. IBM si concentra sul principio di “aumento dell’intelligenza umana” e sulla trasparenza dei sistemi. Microsoft si basa su sei principi chiave: equità, affidabilità e sicurezza, privacy, inclusività, trasparenza e responsabilità. Bosch, in modo simile, si impegna a garantire che “gli umani abbiano il controllo” su ogni decisione presa dalla tecnologia.
Il confronto tra questi framework e principi aziendali illustra una convergenza globale su valori come trasparenza, equità, responsabilità e controllo umano.
La tabella seguente offre una visione sinottica, evidenziando le aree di accordo e le specificità di ogni approccio. Questo dimostra che il “Codice del Futuro” sta emergendo come un insieme di standards globali e non come una serie di regolamenti isolati indice che in ogni parte del mondo si riscontrano le stesse criticità.
| Principio/ Requisito | UE AI Act & Orientamenti | UNESCO Raccomandazione | OECD (Principi AI) | IBM (Principi) | Microsoft (Responsible AI) |
| Controllo Umano & Responsabilità | Sorveglianza umana obbligatoria, con approcci “in-the-loop,” “on-the-loop” e “in-command.” Obblighi di accountability specifici per sistemi ad alto rischio. | Preservazione dell’azione e del processo decisionale dell’essere umano. | Meccanismi per la supervisione umana e la responsabilità degli attori. | L’IA deve “aumentare l’intelligenza umana”; le persone devono essere responsabili dei sistemi. | Le persone devono essere responsabili dei sistemi di IA e avere il controllo. |
| Trasparenza & Spiegabilità | Sistemi di IA e le loro decisioni devono essere spiegabili, con meccanismi di tracciabilità. | Trasparenza e spiegabilità dei processi e dei risultati dell’IA. | Impegno per la trasparenza e la divulgazione responsabile, fornendo informazioni chiare. | I sistemi di IA devono essere trasparenti e spiegabili; chiarezza sui dati di addestramento. | I sistemi di IA devono essere comprensibili. |
| Equità & Non Discriminazione | Evitare distorsioni inique e bias. I sistemi devono essere accessibili a tutti. | Promuovere l’equità e l’inclusione, riducendo gli ostacoli linguistici e culturali. | Rispetto dei diritti umani, inclusi non-discriminazione e uguaglianza. | Rispetto del principio di giustizia, che tratta temi di equità e uguaglianza. | I sistemi di IA devono trattare tutte le persone in modo equo. |
| Privacy & Protezione Dati | Pieno rispetto della protezione dei dati e governance dei dati. | Diritto alla privacy e alla protezione dei dati. | Rispetto della privacy e della protezione dei dati. | I dati e le informazioni appartengono ai loro creatori. Impegno a proteggere la privacy. | I sistemi di IA devono essere sicuri e rispettare la privacy. |
| Robustezza & Sicurezza | I sistemi devono essere resilienti, sicuri e affidabili. | Affidabilità e sicurezza. | I sistemi di IA devono essere robusti, sicuri e funzionare in modo appropriato. | Robustezza e affidabilità dei sistemi. | I sistemi di IA devono funzionare in modo affidabile e sicuro. |
L’AI Act: un approccio legale basato sul rischio
L’EU AI Act, il primo quadro normativo completo al mondo per l’IA, adotta un approccio basato sul rischio per la regolamentazione, applicando regole diverse a seconda del potenziale pericolo che i sistemi rappresentano. Questa strategia non nasce nel vuoto, ma è una risposta diretta e retrospettiva a un dibattito etico preesistente e ai fallimenti noti nell’applicazione dell’IA. Il “Codice del Futuro” non è un’astrazione, ma la cristallizzazione di lezioni apprese.
La legge classifica i sistemi in quattro livelli di rischio:
- Rischio inaccettabile: tutti i sistemi di IA che costituiscono una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone sono vietati. La lista include pratiche come la manipolazione e l’inganno dannosi, il “social scoring” e l’identificazione biometrica remota non mirata. Il divieto di “social scoring”, ad esempio, è una risposta diretta ai rischi distopici in cui l’IA può trattare le persone come “oggetti da vagliare, catalogare, valutare per punteggio, aggregare, condizionare o manipolare”. Questo dimostra che le specifiche del “Codice” sono la traduzione legale di un’analisi etica dei rischi, guidata da un’esperienza di fallimento o da una sua previsione.
- Rischio elevato: i casi d’uso dell’IA che possono comportare gravi rischi per la salute, la sicurezza o i diritti fondamentali sono classificati come ad alto rischio. Rientrano in questa categoria sistemi utilizzati in infrastrutture critiche, istruzione, sanità, occupazione, servizi pubblici e privati essenziali, applicazione della legge e gestione della giustizia. Questi sistemi sono soggetti a requisiti rigorosi, tra cui sistemi di valutazione e mitigazione dei rischi, alta qualità dei dati, registrazione dell’attività e adeguata sorveglianza umana. L’EU AI Act enfatizza la supervisione umana e la responsabilità dei soggetti coinvolti, assicurando che non ci sia un vuoto di accountability quando un algoritmo prende decisioni.
- Rischio limitato: questi sistemi hanno obblighi minimi di trasparenza. Ad esempio, un chatbot deve informare gli utenti che stanno interagendo con un sistema di IA, a meno che non sia già evidente dal contesto.
- Rischio minimo: la maggior parte dei sistemi di IA rientra in questa categoria e non è soggetta a regolamentazione specifica.
I sette requisiti fondamentali dell’IA affidabile: le linee guida operative
Gli orientamenti per un’IA affidabile dell’UE traducono i principi etici in sette requisiti fondamentali che i sistemi dovrebbero attuare e soddisfare durante il loro intero ciclo di vita:
- Azione e supervisione umane: i sistemi di IA devono potenziare gli esseri umani, consentendo loro di prendere decisioni informate e promuovendo i loro diritti fondamentali. Sono necessari meccanismi di sorveglianza, che possono essere conseguiti attraverso approcci come “human-in-the-loop”. Aziende come Bosch si impegnano a garantire che “gli umani abbiano il controllo” su qualsiasi decisione presa dalla tecnologia.
- Robustezza tecnica e sicurezza: i sistemi devono essere resilienti e sicuri per prevenire danni involontari. Devono essere accurati, affidabili e riproducibili, con piani di regresso in caso di problemi.
- Riservatezza e governance dei dati: vanno garantiti il pieno rispetto della vita privata e la protezione dei dati, oltre a meccanismi di governance che assicurino la qualità e l’integrità dei dati stessi. L’IA opera attraverso i dati, e nella stragrande maggioranza dei casi, questi dati sono personali. Per questo, il lavoro delle Autorità di protezione dei dati personali è essenziale per governare adeguatamente l’IA.
- Trasparenza: i sistemi devono essere comprensibili. Vanno garantiti meccanismi di tracciabilità e la capacità di spiegare le decisioni in modo chiaro agli interessati.
- Diversità, non discriminazione ed equità: occorre evitare distorsioni inique (“bias”) che possono avere implicazioni negative, dall’emarginazione dei gruppi vulnerabili all’inasprimento dei pregiudizi. Promuovere la diversità nei team di sviluppo aiuta a identificare e correggere i pregiudizi prima che si manifestino nei sistemi.
- Benessere sociale e ambientale: i sistemi di IA dovrebbero andare a beneficio di tutti gli esseri umani, comprese le generazioni future. Devono essere sostenibili e rispettosi dell’ambiente, tenendo conto anche dell’impatto sociale. L’IA può contribuire a superare sfide globali come il cambiamento climatico e l’ottimizzazione dei risultati in campi come la medicina e l’agricoltura.
- Responsabilità (Accountability): devono essere previsti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi e dei loro risultati. La verificabilità, che consente la valutazione degli algoritmi e dei dati, è fondamentale, in particolare nelle applicazioni critiche.
Le intenzioni del codice: bias, equità e trasparenza nella pratica
Il “bias,” definito come un’inclinazione o un pregiudizio che porta a un trattamento ingiusto, è una delle principali preoccupazioni etiche legate all’IA. Gli algoritmi, essendo sviluppati e addestrati da esseri umani, incorporano inevitabilmente, anche in modo non intenzionale, valori, priorità e limiti umani. Due sono i tipi principali di bias:
- Bias statistico: deriva da dati non rappresentativi di un fenomeno. Ad esempio, un algoritmo per la concessione di prestiti addestrato solo su dati di clienti che hanno effettivamente ricevuto un prestito potrebbe escludere potenziali candidati idonei ma non selezionati, creando una distorsione.
- Bias storico: deriva da pregiudizi socialmente radicati e si traduce in differenze sistematiche tra i gruppi, un fenomeno noto come unfairness algoritmica. Un esempio lampante è l’addestramento degli assistenti vocali con voci femminili, che rispecchia i pregiudizi sociali per cui alle donne è richiesto di essere obbedienti o di servire.
Questi problemi non sono incidenti isolati, ma una caratteristica strutturale del modello di sviluppo attuale. Poiché i modelli di grandi dimensioni sono addestrati su miliardi di parole e dati disponibili online, essi riflettono inevitabilmente i pregiudizi della società. La mancanza di un “valore fondante” o di un “principio guida inviolabile” durante l’addestramento rende il rischio di incoerenze etiche quasi inevitabile. Ciò sposta il dibattito da un problema tecnico a un problema di design e governance: la soluzione non è solo correggere l’algoritmo, ma intervenire a monte sulla qualità e rappresentatività dei dati, e a valle con meccanismi di debiasing e di supervisione umana.
Casi di studio di fallimenti etici: quando le intenzioni vengono meno
La teoria del rischio e i principi etici trovano la loro massima giustificazione nei fallimenti che l’IA ha già prodotto nella pratica. Questi esempi concreti dimostrano la pervasività e la gravità dei rischi etici in diversi settori e sottolineano l’urgenza di un “Codice del Futuro” che sia sia etico che normativo. La tabella seguente illustra alcuni dei casi più emblematici.
| Causa del Fallimento | Settore | Descrizione del Caso |
| Bias storico/Discriminazione | Assunzioni | L’algoritmo di recruiting di Amazon ha penalizzato le donne, basandosi su dati storici in cui gli uomini costituivano la maggioranza dei candidati assunti. Il progetto è stato abbandonato. |
| Dati non rappresentativi | Lavoro (Gig Economy) | Deliveroo Italia è stata multata per aver utilizzato un algoritmo discriminatorio nei confronti di alcuni rider, che ha penalizzato i lavoratori che rifiutavano le consegne o che non erano disponibili. |
| Pregiudizi sociali/Errata classificazione | Giustizia | Nel Regno Unito, un uomo è stato arrestato a causa di un errato riconoscimento facciale, che lo ha identificato come un criminale ricercato dalla polizia. |
| Bias statistico & storico | Servizi pubblici | Lo scandalo dei sussidi per l’infanzia nei Paesi Bassi (“toeslagenaffaire”), in cui un algoritmo fiscale ha erroneamente segnalato migliaia di famiglie per frode, basandosi su fattori come la doppia nazionalità e il basso reddito, portando a conseguenze devastanti. |
| Mancanza di robustezza e di sicurezza | Trasporti | L’incidente del 2018 in cui un’auto a guida autonoma di Uber ha investito e ucciso un pedone, registrato come il primo decesso che ha coinvolto un veicolo senza conducente. |
| Manipolazione algoritmica | Ricerca accademica | Alcuni ricercatori hanno truccato articoli scientifici inserendo istruzioni nascoste rivolte all’IA che assiste i revisori, al fine di influenzare il processo di peer review e suggerire la pubblicazione nonostante le debolezze dello studio. |
3.3. Dalla teoria alla pratica: trasparenza, spiegabilità e accountability
La trasparenza e la responsabilità (accountability) sono principi fondamentali per l’implementazione pratica del “Codice del Futuro”. La trasparenza, intesa come la capacità di rendere visibile e comprensibile come e perché un sistema di IA è stato sviluppato e come prende le sue decisioni, non è solo un principio etico, ma anche un imperativo commerciale e sociale. La ricerca suggerisce che la mancanza di trasparenza può portare a un aumento dell’abbandono dei clienti e a una perdita di fiducia. Le aziende che investono in un approccio etico, che include trasparenza e accountability, non solo riducono i rischi legali, ma ottengono anche un vantaggio competitivo, attirando i migliori talenti e rafforzando la reputazione. L’etica diventa così un elemento distintivo in un mercato sempre più affollato.
L’accountability richiede la creazione di meccanismi chiari che garantiscano la responsabilità per le decisioni e i risultati dei sistemi di IA. Le Autorità di Protezione dei Dati, come il Garante italiano, stanno già giocando un ruolo cruciale, intervenendo in casi specifici per garantire che le innovazioni rispettino i diritti fondamentali. Questa pratica dimostra che la supervisione non è solo un principio astratto, ma un’azione concreta e necessaria. L’esistenza di quadri normativi, come quelli elaborati dalla Commissione Europea e dal U.S. Government Accountability Office (GAO), fornisce la base per una governance dell’IA efficace e responsabile.
L’IA come strumento di potenziamento umano: dalla sostituzione all’aumento
Una delle domande più pressanti nell’era dell’IA riguarda il suo impatto sul lavoro e sulle competenze umane. Il dibattito “L’IA sostituisce l’uomo?” è, tuttavia, una semplificazione di una realtà molto più complessa. La posizione emersa da molte voci autorevoli nel settore, incluse quelle di aziende leader, è chiara: l’IA è una tecnologia potente ma non onnipotente, e il suo scopo non è di sostituire l’uomo, ma di “aumentare l’intelligenza umana“.
L’IA eccelle nell’elaborazione di dati complessi e nell’automazione di compiti ripetitivi. Questo permette agli esseri umani di spostare il loro valore verso attività che richiedono competenze insostituibili, come il pensiero critico, la creatività, l’intuizione, la leadership e l’empatia. L’UNESCO, nella sua guida sull’IA, raccomanda esplicitamente che l’IA non si sostituisca mai all’essere umano nei processi decisionali, ma che funga da “ampliamento delle competenze pratiche e creative“. Il futuro del lavoro, quindi, non sarà caratterizzato da una sostituzione totale, ma da una “ibridazione” delle competenze, in cui l’IA supporta le attività analitiche e gli umani guidano quelle strategiche e relazionali.
Il concetto di ‘Human-in-the-Loop’ (HITL): promessa e criticità.
Il concetto di “Human-in-the-Loop” (HITL) rappresenta un approccio collaborativo in cui l’intervento umano è integrato strategicamente nel ciclo di vita dei sistemi di IA e machine learning.
L’HITL migliora significativamente l’accuratezza e l’affidabilità dei modelli, in quanto l’expertise umana è necessaria per le aree che richiedono giudizio, comprensione contestuale e gestione delle informazioni incomplete. La sua applicazione aiuta a identificare e mitigare i bias, aumenta la trasparenza e la spiegabilità e, di conseguenza, rafforza la fiducia degli utenti. Le normative, come l’EU AI Act, ne richiedono esplicitamente la supervisione per i sistemi ad alto rischio, riconoscendone il ruolo essenziale nel prevenire danni a salute, sicurezza e diritti fondamentali. L’HITL viene applicato in ambiti come l’etichettatura dei dati per la visione artificiale (es. imaging medico e riconoscimento facciale), l’elaborazione del linguaggio naturale (es. traduzione e sentiment analysis) e il riconoscimento vocale.
Nonostante i suoi benefici, il concetto di HITL presenta limiti e criticità. Una tesi avanzata da analisti come Leigh McMullen di Gartner suggerisce che, su larga scala, il controllo umano sull’IA possa diventare un’illusione. I limiti includono i costi e i potenziali errori umani, nonché il fenomeno per cui gli esseri umani, quando supervisionano un sistema automatizzato, tendono a “entrare in pilota automatico,” lasciando che gli errori passino inosservati. Inoltre, i Large Language Models (LLM) sono progettati per produrre “testo plausibile,” non necessariamente corretto, rendendo difficile per l’operatore umano individuare le inesattezze. Il dibattito si sposta così da una semplice questione di “se” a “come” l’uomo interviene. I modelli di Bosch che descrivono approcci diversi (controllo, intervento, supervisione) e la visione di Gartner sui “guardian agent” – modelli di IA progettati per controllare altri sistemi di IA – mostrano che la supervisione umana diretta non è sempre scalabile o sufficiente. La ricerca suggerisce un’evoluzione in cui l’uomo delega non solo i compiti, ma anche una parte della supervisione, pur mantenendo un ruolo finale. Il “Codice del Futuro” si adatta a questa realtà, promuovendo un approccio dinamico che riconosce i limiti dell’uomo e della macchina, e cerca di colmarli attraverso una collaborazione sempre più sofisticata.
La visione distopica: “dataismo” e perdita di controllo.
La pervasività dell’IA alimenta visioni distopiche, che spesso trovano eco in fallimenti etici e operativi. Queste prospettive ipotizzano scenari in cui l’uomo perde il controllo sulla tecnologia, che opera in modo opaco e imprevedibile. Il concetto di “dataismo,” per esempio, descrive un futuro in cui l’efficienza algoritmica prevale sui valori e sui diritti umani, trattando gli individui come semplici insiemi di dati. Questo scenario è alimentato dalla mancanza di trasparenza dei sistemi “black box” e dalla possibilità che l’IA venga utilizzata per il controllo di massa. Preoccupazioni concrete includono la minaccia della “singolarità tecnologica,” in cui la crescita tecnologica diventa incontrollabile, e la possibilità di uno “stallo dell’economia” causato da un’automazione che elimina il lavoro e porta a conseguenze imprevedibili. Il timore centrale è che l’IA, usata da esseri umani per controllare altri esseri umani, possa portare a conseguenze moralmente inaccettabili.
La visione utopica: estensione della natura umana.
Controbilanciando il pessimismo distopico, le visioni utopiche vedono l’IA come un’opportunità senza precedenti per potenziare la natura umana e risolvere sfide globali. Questa prospettiva considera l’IA non una minaccia, ma un’estensione delle nostre capacità cognitive, sociali e culturali. Le utopie virtuali, ad esempio, sono concepite come comunità ideali in cui le persone scelgono le proprie regole, costruendo mondi che riflettono i valori che desiderano. L’IA può aiutare a superare sfide come il cambiamento climatico, l’ottimizzazione dei trasporti e il miglioramento della medicina, contribuendo a un’economia più produttiva e sostenibile. In questa visione, il “Codice del Futuro” è l’insieme di strumenti, leggi e principi che l’uomo sta creando per orientare l’IA verso il bene comune.
Il dibattito filosofico: intelligenza, coscienza e libertà
Al di là delle visioni estreme, il dibattito si articola su questioni filosofiche fondamentali che distinguono l’uomo dalla macchina. La mente umana, a differenza di quella artificiale, si caratterizza per l’intenzionalità e la coscienza di sé. L’intelligenza umana si rivolge a qualcosa e, nella coscienza, si rivolge a sé stessa, ponendosi domande su se stessa, sulla propria natura, sul mondo circostante, sull’origine e il funzionamento del mondo.
L’IA, al contrario, è un “prodotto assolutamente determinato,” un artefatto che, pur migliorato/ottimizzato, non può mai essere ontologicamente libero. La sfida per l’uomo diventa quella di comprendere quando si ha a che fare con un intelletto naturale o artificiale, un’operazione che diventa sempre più difficile man mano che le macchine imparano a simulare l’empatia e i sentimenti.
Il dibattito non è tra una tecnologia “buona” e una “cattiva,” ma tra un uso “eticamente consapevole” e uno “cieco.” Il futuro dell’Ai non è predeterminato, né si avvia verso una singolarità inevitabile. Le conseguenze positive o negative dell’IA dipendono interamente dalla nostra capacità di usare questa “volontà conoscitiva” con “giudizio” e “consapevolezza”. Il “Codice del Futuro” emerge quindi come un processo di verifica e ratifica continuo, che l’uomo sta creando per orientare l’IA verso un futuro che non sia né un’illusione, né una prigione, ma il risultato delle nostre scelte.
Casi di studio e applicazioni: l’interazione uomo-macchina in pratica.
Nel campo della sanità, l’IA si sta dimostrando un ausilio prezioso, pur con il ruolo insopprimibile del professionista umano.
Sanità e medicina
L’intelligenza artificiale supporta la diagnostica analizzando immagini radiologiche, dermatologiche e dati clinici complessi. L’IA generativa, inoltre, può creare “dati sintetici” per addestrare modelli, aggirando le rigorose leggi sulla privacy dei pazienti come l’HIPAA e garantendo la condivisione di conoscenze cliniche in modo sicuro. Ad esempio, un modello di IA può analizzare migliaia di casi sintetici di sepsi per imparare a individuare i primi segni della malattia, anche in situazioni rare. Nonostante le capacità analitiche, l’integrazione dell’IA in questo settore espone la necessità di un’etica “di fatto” che non si limita alla teoria. Il giudizio finale e la responsabilità per la diagnosi e il trattamento rimangono del medico, che utilizza l’IA come uno strumento per potenziare le proprie capacità.
Giustizia e Diritto
Nel settore giudiziario, l’IA è utilizzata per analizzare casi e fornire assistenza, ma il suo impiego solleva questioni delicate sui diritti fondamentali. La “Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari” sottolinea l’importanza di un “giudice naturale” e la necessità di un equilibrio tra la proprietà intellettuale di alcune metodologie di trattamento e l’esigenza di trasparenza e imparzialità. Il rischio di bias è particolarmente elevato, come dimostrato dall’uso dell’algoritmo COMPAS negli Stati Uniti, che ha sollevato dubbi sull’equità delle valutazioni del rischio di recidiva. L’integrazione dell’IA in ambiti così critici non è una questione teorica; è un’applicazione pratica che richiede una supervisione e un’azione concrete da parte delle autorità di controllo. Il caso di Deliveroo Italia, multata per l’uso di un algoritmo discriminatorio, dimostra che la mera esistenza di un principio di non discriminazione non è sufficiente; l’applicazione del “Codice” richiede un’azione attiva da parte delle autorità di controllo e dei garanti della privacy.
Lavoro e media
Nel lavoro e nei media, l’IA ha dimostrato di non essere un sostituto infallibile dell’uomo, ma uno strumento imperfetto. Mentre alcuni editori esplorano l’idea di far scrivere articoli alle intelligenze artificiali, esperimenti hanno rivelato che gli esseri umani devono correggere la metà dei pezzi prodotti automaticamente, a causa di errori significativi.
Allo stesso tempo, l’automazione attraverso l’IA può portare a una “riduzione o degrado dei salari” per i lavoratori che si specializzano in compiti di routine. Tuttavia, l’IA può anche potenziare i lavoratori automatizzando questi compiti e permettendo loro di concentrarsi su attività più creative e strategiche. Il futuro in questo settore risiede nella “collaborazione uomo-macchina“, dove l’uomo rimane al timone delle attività strategiche e relazionali.
Criticità e sfide future: governance, educazione e consapevolezza
Nonostante la crescente adozione di principi etici e quadri normativi, una delle principali sfide del “Codice del Futuro” è il costante gap tra la rapidità esponenziale dell’innovazione tecnologica e la lentezza dei processi legali e normativi. La governance dell’IA è definita come “un percorso per gestire i sistemi di IA in modo responsabile”, ma le autorità competenti, come quelle di protezione dei dati, si trovano a intervenire in un ambiente in rapida evoluzione, con un mandato che deve costantemente evolvere per far fronte a nuove sfide.
Le azioni retroattive dei garanti della privacy, sebbene cruciali, non possono da sole anticipare tutti i rischi emergenti. Questo richiede un approccio agile che permetta di adattare le normative in tempo reale.
L’importanza dell’alfabetizzazione digitale ed etica.
Poiché la responsabilità per l’etica dell’IA ricade su “tutti coloro che hanno a che fare con l’intelligenza artificiale, dalle imprese ai governi, dai consumatori ai cittadini”, l’alfabetizzazione digitale ed etica diventa un elemento cruciale. L’UNESCO sottolinea la necessità di implementare programmi di formazione per i docenti e di promuovere l’alfabetizzazione tecnica a livello globale. La formazione è fondamentale affinché i dipendenti e gli utenti possano comprendere e lavorare in modo responsabile con le tecnologie di IA, rafforzando l’integrità e l’efficacia delle soluzioni adottate. La consapevolezza dei limiti e dei bias intrinseci dell’IA è il primo passo per un’adozione critica e responsabile.
Conclusioni e raccomandazioni
Il “Codice del Futuro” non è un’utopia predefinita o una distopia inevitabile, ma un’opera collettiva in continua costruzione.
Si basa su un dialogo costante tra le specificazioni normative (che mappano i rischi e li affrontano con regole concrete), le intenzioni etiche (che guidano lo sviluppo verso risultati benefici) e il ruolo insopprimibile dell’uomo (che fornisce il giudizio finale e la coscienza morale). La tesi sviluppata in queste poche righe è che il futuro dell’Ai non è già scritto, ma è il risultato delle nostre scelte.
Dall’analisi emergono tre raccomandazioni chiave:
Per i regolatori: mantenere e potenziare un approccio di governance agile e basato sul rischio. Le normative devono essere flessibili e adattabili per non soccombere alla velocità dell’innovazione. È essenziale promuovere un quadro di governance globale e collaborativo, che allinei gli standard a livello internazionale per evitare frammentazioni normative.
Per le aziende: integrare i principi etici non come un mero esercizio di conformità, ma come un vantaggio competitivo. L’investimento in trasparenza, accountability e formazione del personale è fondamentale. La creazione di comitati direttivi multidisciplinari per l’etica dell’IA può garantire che le considerazioni etiche siano integrate in ogni fase dello sviluppo, dal design alla distribuzione.
Per gli utenti: promuovere attivamente la consapevolezza e l’alfabetizzazione digitale ed etica. Gli individui devono essere resi consapevoli che l’IA è uno strumento potente ma imperfetto e che la verifica umana rimane un passo fondamentale in ogni processo decisionale critico. È solo attraverso un’adozione consapevole e critica che si può garantire che l’IA rimanga al servizio dell’umanità e non viceversa.
Fonti:
https://www.bosch-press.it/pressportal/it/it/press-release-43392.html
Il Ruolo Umano nell’era dell’AI – HubTec
https://www.netapp.com/it/artificial-intelligence/what-is-artificial-intelligence
oecd.org
biodiritto.org UNESCO (ONU) – Recommendation on the Ethics of Artificial Intelligence – Biodiritto
en.antaranews.com Gov’t makes mechanism to ensure AI development aligns with ethic
digital-strategy.ec.europa.eu Legge sull’IA | Plasmare il futuro digitale dell’Europa
ibm.com What Is Human In The Loop (HITL)? – IBM
https://productpicnic.beehiiv.com/p/human-in-the-loop-is-a-thought-terminating-cliche
https://botpress.com/it/blog/generative-ai-use-cases-in-healthcare










