intelligenza artificiale

Qualità dei dati IA: la sfida ignorata delle tecnologie artificiali



Indirizzo copiato

La qualità dei dati in ingresso è un elemento cruciale nelle tecnologie IA. Senza una formazione mirata su come acquisire, rilevare e misurare correttamente i dati, i risultati ottenuti potrebbero essere errati o addirittura pericolosi

Pubblicato il 23 lug 2025

Francesco Beltrame Quattrocchi

Ordinario di Bioingegneria Università degli Studi di Genova; Presidente di ENR – Ente Nazionale di Ricerca e promozione per la standardizzazione



ai optimization dati open government data Politiche pubbliche data driven articolo 48 GDPR qualità dei dati IA crisi della globalizzazione pa data-driven

La qualità dei dati in ingresso nei sistemi IA rappresenta oggi una sfida cruciale e spesso trascurata. Mentre l’attenzione si concentra sulla sofisticazione degli algoritmi e delle architetture, la formazione ingegneristica dimentica un principio fondamentale che guidava i primi corsi di Calcolatori Elettronici: senza dati di qualità, anche i sistemi più avanzati producono risultati inaffidabili e potenzialmente pericolosi.

Le origini della formazione informatica e il principio garbage in-garbage out

In Italia, a partire dalla fine degli anni ’60, nella maggior parte dei corsi di laurea in Ingegneria Elettronica (la laurea in Ingegneria Informatica verrà istituita molti anni dopo), ovviamente quinquennali a ciclo unico e ben lontani dalla follia culturale della riforma 3+2, comparivano i primi insegnamenti denominati – per la maggior parte – Calcolatori Elettronici.

In essi a valle dell’analisi approfondita della architettura classica di von Neumann e del corrispondente hardware, faceva timidamente capolino il ruolo del software, della programmazione e della elaborazione dei dati messi in ingresso al calcolatore, inteso come un insieme di circuiti elettronici digitali per produrre in uscita il risultato di un determinato algoritmo codificato nel “pezzo” di software, caricato opportunamente sulla macchina stessa.

Tali insegnamenti erano solidamente “circondati” da altri di Elettronica Applicata, sia analogica sia digitale, destinati a costituire in qualche modo l’ossatura della formazione della professionalità di un Ingegnere Elettronico, così come richiesto dal mercato dell’epoca. Importante è rilevare come in modo sinergico e ripetuto in tutti tali insegnamenti venisse ripetuto come un mantra decisivo: garbage in – garbage out, ovvero non è importante quanto sofisticata e veloce sia la parte hw della macchina o l’algoritmo e la sua codifica in un programma sw, tutto dipende dalla qualità e dalla sicurezza (in senso scientifico) dei dati di ingresso: ove i dati in ingresso non siano stati acquisiti, rilevati, misurati con sufficiente cura o, peggio, essi siano scorretti, i risultati ottenuti sarebbero stati di nessun valore, a volte perfino pericolosi ove forieri di processi decisionali a valle.

La trascuratezza attuale nella formazione alle tecnologie IA

Sembra una considerazione banale quella fin qui rappresentata, ma nella sua semplicità accende una spia rossa potente su chi impieghi o venga formato a impiegare macchine e applicativi sofisticati quali tutti quelli facenti riferimento alle tecnologie IA.

Occorre insistere su quel medesimo mantra soprattutto per le generazioni di giovani allievi ingegneri che vengano formati alle tecnologie IA, così come sui loro professori, purtroppo spesso attratti dalle tecnologie IA in quanto tali nel dettaglio e su di esse molto competenti, ma poco esercitati alla capacità di fare attenzione e avvisare in modo adeguato gli allievi del problema della qualità dei dati in ingresso.  

Le tecnologie IA ricorrono infatti in numerosissimi settori diversi, in situazioni di pace e, purtroppo, di guerra. La loro alta domanda di energia, alla luce del binomio inscindibile informazione-energia di Shannon, il loro costo, richiederebbe un’altrettanta formazione alla cultura e alla cura del dato. La quale, purtroppo, non c’è e comunque non è mai adeguatamente comunicata e messa in luce, neppure dai media più attenti.

L’ossimoro dell’intelligenza artificiale e l’analogia fuorviante

Tale circostanza appare poco ragionevole e poco comprensibile, quasi distopica, in considerazione della grande enfasi da sempre gettata sul grado di antropomorfismo delle tecnologie IA, proprio a partire dal nome stesso: attribuire l’aggettivo “intelligente” a quello di “artificiale”, sfiora l’ossimoro. Viene, nello specifico, fatto riferimento alle capacità cognitive della persona umana homo sapiens, quelle più sofisticate in senso evolutivo della nostra specie rispetto a tutti gli altri esseri viventi del pianeta terra. Ciò avviene, paradossalmente trascurando la nostra enorme ignoranza perfino sui meccanismi più semplici a livello biologico del nostro sistema neurofisiologico.

L’esempio più semplice e frequentemente adoperato da media e, purtroppo in molti casi, perfino dagli addetti ai lavori, specialmente docenti universitari nelle scuole di Ingegneria, è quello di fare ricorso all’analogia con modelli elettrico-elettronici per tentare di simulare il comportamento di reti di cellule nervose di famiglie diverse, le quali certamente esibiscono tali tipi di segnali rilevabili con tecniche diverse (a partire dall’antico EEG) utili al neurologo clinico, i quali però sono figli in modo decisivo dell’azione di complessi meccanismi neurochimici costituiti da una pluralità di attori tra loro in azione secondo una regia legata anche ad altri fattori appartenenti a tutto il corpo di homo sapiens e non solo alla sua parte come sistema nervoso (centrale e periferico).

Perché l’analogia chimica-elettrica non è sufficiente

L’analogia sistema nervoso – macchina elettrica è drammaticamente fuorviante, se non intesa in situazioni precise e contestualizzate, perché dimentica il sottostante “brodo chimico” senza il quale nulla potrebbe accadere. Del resto è ben noto che molte situazioni neuropatologiche sono proprio causate da disordini di neurotrasmettitori, recettori, enzimi e quant’altro,  e possono essere curate in parte e con grande difficoltà rispetto a tante altre patologie grazie a neurofarmaci che agiscono a livello essenzialmente chimico (alcuni, pochi, anche secondo il paradigma della medicina di precisione) e, come conseguenza, soltanto dopo, producono effetti a livello elettrico. Trascurare l’analogia sistema nervoso – “brodo chimico”, significa enorme superficialità a livello scientifico, cosa tanto più vera quanto più si intenda definire, articolare, postulare il concetto di intelligenza fino a giungere alla coscienza e all’autocoscienza di una macchina artificiale, aspetti che, come scrive anche in suoi diversi libri Federico Faggin, oltre a essere potentemente misteriosi, appaiono ontologicamente irrudicibili.

Antropomorfismo della macchina versus antropomorfismo del dato

Resta osservare che homo sapiens possa pensare tali cose, ovvero una propria aspirazione a ritrovarsi riconoscibile in una qualche forma di realtà esterna da lui stesso progettata e creata (antropomorfismo della macchina artificiale), forse per cercare un aiuto, una forma di riscontro esterno alle proprie insicurezze interiori. Alla luce di queste considerazioni, un minimo di coerenza per coloro che si accaniscono nella laudatio degli aspetti intelligenti di questo tipo alle tecnologie IA, propagandandone in modo sistematico e un po’ ottuso in verità gli aspetti coscienti, chiederebbe di osservare in primo luogo quanto attento sia il sistema biologico di homo sapiens alla qualità e alla cura dei dati che riceve in ingresso, grazie a un potentissimo sistema di controllo distribuito a ogni livello di risoluzione strutturale e funzionale evolutosi nei millenni per offrire a se stesso la risposta migliore possibile agli stimoli, per reagire ottimizzando la probabilità di sopravvivenza, minimizzando peraltro l’energia necessaria alla reazione.

Il nostro sistema biologico può dirsi intelligente davvero perché tanto per cominciare è estremamente ridondato a ogni livello, da quello molecolare del DNA a quello dell’organismo nel suo complesso, dotato di una molteplicità di canali sensoriali integrati e fra loro comunicanti in modo proattivo, capace di distinguere dati “buoni” da dati “cattivi”, dati da ignorare o la reazione ai quali sia posticipabile perché poco importanti e dati, invece, ai quali sia necessario reagire in modo sinergico e immediato: e qui va anche bene valutata la doppia analogia chimica-elettricità, in modo integrato.

La negligenza nel controllo dei dati sperimentali in ingresso

L’attitudine degli addetti alle tecnologie IA, purtroppo anche a livello formativo, denuncia una manifesta trascuratezza sulla questione controllo dei dati in ingresso ai sistemi IA, in relazione ad aspetti relativi alle modalità secondo le quali essi siano stati acquisiti e misurati dal mondo reale, la ripetibilità degli esperimenti condotti, tutte cose ben conosciute da chi appartenga al mondo scientifico propriamente inteso.

Tutte cose che invece il sistema homo sapiens fa in modo attento. In altre parole, a fronte di un ricercato antropomorfismo della macchina e delle sue capacità elaborative, non corrisponde un altrettanto sforzo di cercare un antropomorfismo del dato.

La necessità di un approccio critico verso i dati in ingresso

Tale circostanza rileva per le tecnologie IA, perché dimenticarsi del mantra indicato all’inizio garbage in – garbage out  significa correre rischi molto gravi e costosi in senso lato relativamente all’impatto che l’uscita di un sistema IA possa avere su un decisore a valle. Costui, infatti, ove incautamente attratto dal fascino e, per certi versi, dalla facilità e disponibilità delle tecnologie IA, potrebbe essere indotto suo malgrado a prendere decisioni superficiali o perfino del tutto errate, dall’impatto devastante, per esempio, sulla propria azienda privata dal punto di vista economico o, peggio, sul proprio bacino socio-economico di riferimento, ove si tratti di decisore pubblico.

I principi biologici come guida per le tecnologie IA

Il premio Nobel per la Medicina, Paul Nurse, nel suo libro “Che cosa è la vita” (Mondadori, 2020) indica in modo molto chiaro i cinque principi fondamentali della biologia, articolati in altrettanti cinque capitoli della sua opera:

1) la cellula,

2) il gene,

3) l’evoluzione per selezione naturale,

4) la vita come chimica e

5) la vita come informazione.

Si tratta di cinque letture offerte in modo integrato come sorta di canovaccio di riferimento, certamente non esaustivo, come l’autore stesso scrive nel libro, ma che aiuta il lettore a fissare almeno qualche “paletto” per intraprendere un qualsivoglia tentativo sensato di analogia fra sistemi naturali e artificiali, in particolare a quelli relativi alle tecnologie IA.

Tra questi “paletti”, cultura e cura dei dati in ingresso certamente risultano elementi non eludibili come sfida da affrontare per rendere credibile la missione delle tecnologie IA.

Ciò, alla fine, significa stimolare il senso critico e di responsabilità di progettisti e utenti dei sistemi IA, rivalutando la riflessione sui metodi sperimentali, sulla cura del dettaglio nascosto, sul porre domande, anche a discapito della tanta ricercata velocità.

Verso una coscienza responsabile dei sistemi IA

Non a caso, in altro libro importante “Elogio della lentezza” (il Mulino, 2014) il neuroscienziato Lamberto Maffei pone giustamente l’accento sulla “lentezza” dello sviluppo del sistema nervoso di homo sapiens nella propria formazione rispetto a tutte le altre specie viventi, e alla corrispondente lentezza nel processo del suo invecchiamento. Si potrebbe giungere a dire che un primo passo per attribuire una quale che forma seppure rozza e minimale di “coscienza” a un sistema IA, sarebbe proprio quello di farsi in qualche modo coscienziosamente responsabile e critico verso i dati che gli vengano dati in pasto.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati