credibilità dell’IA

La grande truffa dell’IA: è morale vendere probabilità per certezze?



Indirizzo copiato

L’adozione degli LLM mina la coerenza della legge zero dell’informatica, mettendo in discussione la ripetibilità e la correttezza del metodo scientifico

Pubblicato il 31 lug 2025

Marco Calamari

consulente in ambito privacy e Computer Forensics



ia truffa

 Che Cassandra sappia, non esisteva prima di oggi una Legge Zero dell’Informatica, per cui non solo ne rivendica la paternità, ma la enuncia così:

“Risolvere problemi per via informatica richiede l’uso di algoritmi e la ripetibilità dei risultati.”

Fare altrimenti pone il procedimento non solo al di fuori dell’informatica, ma al di fuori del metodo scientifico stesso, e a parere di Cassandra oltre i confini della correttezza professionale e della sanità mentale.

Pareri forti, vero? Vediamo di illustrarne ogni singolo punto. 

Algoritmi, determinismo e la base dell’informatica

Fin dai tempi di Ada di Lovelace il calcolo automatico era visto come un metodo deterministico per ottenere, partendo da certi dati, i risultati da essi conseguenti, applicando algoritmi in modo automatico. 

Questo ovviamente in teoria, quando tutto va bene; nella pratica funziona solo se non avvengono guasti hardware, crash software o errori di analisi e di programmazione. 

Contro questo elenco di disgrazie, gli sviluppatori di software lottano da 70 anni, ottenendo spesso solo dei pareggi, ma non vittorie decisive.

LLM e perdita della ripetibilità nei processi informatici

Si può fare di peggio? Certamente!

Usare invece un Grande Modello Linguistico (LLM), che oggi è la falsa IA per antonomasia, significa spostare la risoluzione dei problemi da metodi certi e deterministici, che solo eccezionalmente possono avere errori, di solito evidenti, a metodi che non offrono né la ripetibilità dei risultati, né la certezza di un algoritmo.

Questi metodi, che incorporano o addirittura sono semplicemente un LLM, possono, come noto e ripetuto ad nauseam, solo offrire “risposte” “credibili”, ma non “esatte”

Anzi, è certo che alcune “risposte” saranno “errate” (si vedono le virgolette?), quindi sarà sempre necessaria un’ulteriore verifica da parte di un’intelligenza naturale per validare la risposta fornita dall’LLM.

Oggi è d’uso far svolgere queste attività di verifica e di allineamento ad altri LLM specializzati; è abbastanza evidente come questo meccanismo sposti solo il problema dell’inaffidabilità di un passo, ma non lo risolva affatto.

Credibilità contro verità: il limite strutturale degli LLM

In verità, essendo gli LLM solo in grado di fornire una prosecuzione credibile di una sequenza di parole, operazione effettuata su basi sostanzialmente statistiche, non possiamo, a ben vedere, nemmeno categorizzare le loro “risposte” come “esatte” od “errate”, essendo queste due categorie proprie di logica, informazione, pensiero, che negli LLM sono completamente assenti.

Cassandra non sa, in verità, chi possa credere in buona fede che questo sia il modo “giusto” di far evolvere l’informatica, e non vi riconosca immediatamente la strada in discesa che porta alla perdizione. 

L’inefficienza energetica e l’assurdità funzionale degli LLM

Riassumendo all’estremo: oggi, invece di impiegare computer e algoritmi energeticamente efficienti che forniscono sempre risposte esatte, utilizziamo generatori di stronzate credibili, affamati di energia come mostri, e poi cerchiamo con vari mezzi di depurare i loro output di tutte le affermazioni sbagliate.

Cosa mai potrebbe andare storto?

Produttività come giustificazione all’uso distorto degli LLM

Per spiegare cosa sta succedendo, dovremmo dire che le false IA di oggi sono solo una gigantesca operazione finanziaria; ma su questo torneremo in una prossima esternazione di Cassandra.

Torniamo a noi. Come i rapporti quotidiani con altre persone rivelano, non solo a Cassandra ma a chiunque sia interessato alla questione, tutti e i loro amici, anche stimati e rispettabili professionisti, utilizzano oggi degli LLM per farsi analizzare un problema, impostare o addirittura scrivere un documento che poi venderanno al fiducioso cliente.

Frequentano magari anche corsi di specializzazione, erogati persino da associazioni e ordini professionali, che insegneranno il “prompt engineering” e come fare “domande” a un LLM in maniera efficace. Sono tutti impazziti? No, basta una parola per descrivere perfettamente il perché: “produttività”.

La responsabilità morale nell’adozione degli LLM

Nel frattempo qualunque azienda o singolo sviluppatore di software sta incorporando nei propri prodotti qualche LLM commerciale, in buona fede o anche solamente per reggere la concorrenza, e propaganda la cosa ai quattro venti.

A Cassandra piace pensare di essere ancora saldamente legata alla realtà presente, e di cercare di orientarsi in quella futura.

Non le viene nemmeno da meravigliarsi o arrabbiarsi; la domanda che continua invece a presentarsi alla sua mente è assai diversa.

Aderire a questo andazzo, o anche solo assecondarlo passivamente, è semplicemente immorale o anche criminale?

A ciascuno la sua risposta.


Scrivere a Cassandra — Twitter — Mastodon
Videorubrica “Quattro chiacchiere con Cassandra”
Lo Slog (Static Blog) di Cassandra
L’archivio di Cassandra: scuola, formazione e pensiero

Licenza d’utilizzo: i contenuti di questo articolo, dove non diversamente indicato, sono sotto licenza Creative Commons Attribuzione — Condividi allo stesso modo 4.0 Internazionale (CC BY-SA 4.0), tutte le informazioni di utilizzo del materiale sono disponibili a questo link.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati