scenari

L’abbaglio dell’IA senziente: il mito che inganna utenti e investitori



Indirizzo copiato

L’intelligenza artificiale generativa viene spesso percepita come senziente, ma si tratta di algoritmi che imitano pattern umani. Questa confusione genera false aspettative e rischi manipolativi per gli utenti

Pubblicato il 25 lug 2025

Paolino Madotto

manager esperto di innovazione, blogger e autore del podcast Radio Innovazione



ia nell'economia IA e società AI nelle public relations ia senziente ibridazione competenze uomo-ai AI in azienda

Nel panorama tecnologico odierno, l’Intelligenza Artificiale Generativa è indubbiamente la protagonista. Ma dietro l’innegabile entusiasmo e gli ingenti investimenti, si cela una narrazione, a tratti fuorviante, che merita un’analisi più profonda. Mi riferisco alla crescente tendenza a paragonare le macchine a esseri senzienti, attribuendo loro un’etica e una “intelligenza” che, a oggi, non possiedono. Questo non è un semplice elemento retorico, ma un abbaglio che rischia di avere serie ripercussioni.

L’equivoco dell’etica artificiale

Quando parliamo di etica, ci riferiamo allo studio sistematico dei principi morali che guidano il comportamento umano. L’etica indaga ciò che è giusto e sbagliato, buono e cattivo, e cerca di stabilire standard per le azioni umane, sia individuali che sociali. Riflette su come dovremmo comportarci e quali valori dovrebbero guidare le nostre scelte. Eppure, sempre più spesso, il dibattito si sposta sull'”etica dell’IA”, accostando una tecnologia a un essere senziente.

L’IA non può determinare come comportarsi perché non ha una intelligenza sua ma è solo addestrata, semmai l’etica dovrebbe essere aziendale ma allora vale per tutto.

Il marketing della senzienza artificiale

Questa equiparazione genera diversi problemi. In primo luogo, attribuiamo a una macchina uno status che non ha e, ad oggi, non può avere: non è senziente. In secondo luogo, e forse inconsapevolmente, regaliamo a chi vuole “venderci” queste macchine come senzienti un potente strumento di marketing. Se l’IA non fosse dipinta come così tanto intelligente e capace, forse non vedremmo i miliardi di dollari in investimento che ne sostengono lo sviluppo. I CEO delle grandi aziende tecnologiche, spesso in perdita, alimentano questo mito di un’IA senziente al pari dell’umano per giustificare e sostenere i loro ingenti investimenti.

In realtà, i sistemi di IA sono programmi in grado di riconoscere pattern e di ripeterli o arricchirli. Non parliamo di intelligenza nel senso umano del termine, quanto piuttosto di algoritmi avanzati e modelli computazionali.

I meccanismi psicologici che portano a credere nell’IA senziente

È un dato di fatto che un numero crescente di persone si affidi all’IA per confidarsi e parlare dei propri problemi. Questo può avere dei lati positivi, ma i casi in cui l’IA ha “consigliato” il suicidio (lavorando su un’idea già presente nell’interlocutore) sono campanelli d’allarme di come funziona. Uno psicologo che imita i nostri pattern non ci cura; abbiamo bisogno di un confronto e di una potenziale opposizione per crescere e trasformarci. Se vediamo un nostro interlocutore che ci imita in tutto e per tutto abbiamo una sensazione di essere presi in giro, con l’IA non ci viene.

Ma allora, perché attribuiamo una tale “intelligenza” a questo artefatto tecnologico? Le spiegazioni sono molteplici:

  • La novità dell’Imitazione: per la prima volta, l’uomo si trova di fronte a qualcosa in grado di imitarlo in modo convincente.
  • Attribuzione di significato umano: siamo noi a dare significato ai simboli che la macchina ci restituisce. La macchina, di per sé, non attribuisce alcun significato. Identifichiamo un certo comportamento come intelligente, indipendentemente dal fatto che lo sia, proprio come per secoli l’uomo ha attribuito a fenomeni fisici connotati divini. Il fatto che statisticamente la pioggia cadesse dopo aver fatto una serie di danze della pioggia portava a pensare che il dio della pioggia avesse esaudito la richiesta e fare nei suoi confronti sacrifici e doni. Oggi sappiamo che la pioggia ha altri meccanismi.
  • La persuasione dell’imitazione: una delle tecniche di persuasione più efficaci è l’imitazione. Ci fidiamo di più di chi imita i nostri comportamenti. Un’IA che fa questo, e l’IA generativa è progettata per imitarci, conquista la nostra fiducia, perfino manipolarci (uno studio interessante su questi aspetti). Per questo sempre più persone le parlano come a un amico o a uno psicologo, soprattutto considerando che alcuni LLM sono stati creati per avere un atteggiamento accondiscendente. In una società sempre più individualizzata, l’IA crea un senso di “gruppo”, un rifugio dove trovare accettazione senza giudizio.
  • Il bisogno sociale in un contesto individualistico: l’uomo è un animale sociale. Abbiamo sempre vissuto in “branchi”, in gruppi più o meno organizzati. La società odierna spinge sempre più verso l’individualismo, portando a una frammentazione di morali ed etiche. In questo contesto, l’IA diventa un “compagno” che non giudica, un elemento di congiunzione per chi si sente escluso. Nei social cerchiamo il nostro gruppo di riferimento, le “etiche” si radicalizzano e divergono (vediamo le tendenze elettorali verso una maggiore radicalizzazione perfino di chi rappresenta il “centro”), l’IA porta ancora più avanti questo bisogno di vedersi in qualcosa che sta “nel giusto”. L’AI è la “nuova verità”, abbiamo l’idea che ha imparato tutto e sa tutto, se gli facciamo un ragionamento e ci da ragione ci riempie di orgoglio perché l’ha detto l’AI. E invece ci sta solo compiacendo perché statisticamente ha imparato a farlo.
  • La compiacenza nelle organizzazioni: nelle nostre organizzazioni, nonostante milioni di pagine di libri di management spieghino i benefici della diversità e del contraddittorio, si tende spesso a uniformarsi all’opinione della gerarchia. L’IA generativa eccelle in questo, essendo in grado di assecondare perfettamente le direttive. Alcuni vertici aziendali, pur professandosi aperti al confronto, amano chi la pensa come loro, e l’IA generativa si presta a questo. Le organizzazioni che prediligono la conformità rispetto al confronto critico (il vero motore dell’innovazione e della crescita) vedono nell’IA un alleato perfetto. Quale capo non vorrebbe seguaci ubbidienti e pronti? (Peccato che poi non potrà fare lo “scaricabarile” se qualcosa non andasse nel verso giusto)

Il valore reale dell’IA oltre la narrazione mitica

Quando diamo un significato umano all’IA, stiamo prendendo un abbaglio, confondendo qualcosa con qualcuno. Cominceremo a utilizzare meglio l’IA solo quando daremo il giusto peso a questa tecnologia, riconoscendone potenzialità e limiti. L’IA non ci ruberà il lavoro se nel lavoro ci mettiamo le nostre capacità umane: la creatività, l’etica, la capacità di valutazione e persino l’errore. L’IA ruberà i lavori di mera esecuzione. Pensiamo allo “sciopero bianco”: i lavoratori che eseguono alla lettera le indicazioni dell’azienda la paralizzano o rallentano fortemente. Questo dimostra che, al di là di processi e procedure, senza il contributo e il coinvolgimento umano, le aziende non producono.

Un recente rapporto di Gartner lo conferma:

“Secondo Gartner, oltre il 40% dei progetti di intelligenza artificiale “agentica” verrà annullato entro la fine del 2027 a causa dell’aumento dei costi, di un valore aziendale poco chiaro o di controlli dei rischi inadeguati.

“La maggior parte dei progetti di IA “agentica” al momento sono esperimenti in fase iniziale o proof of concept, alimentati principalmente dall’hype e spesso mal applicati”, ha affermato Anushree Verma, Senior Director Analyst di Gartner. “Questo può rendere cieche le organizzazioni rispetto ai costi reali e alla complessità dell’implementazione di agenti di IA su larga scala, impedendo ai progetti di entrare in produzione. Devono superare l’hype per prendere decisioni strategiche e ponderate su dove e come applicare questa tecnologia emergente.”

Questo la dice lunga sull’effettiva potenza dell’IA: farà molte cose, ma dovrà comunque essere ben diretta. Con le attuali tecnologie, non farà molto di più.

Conseguenze psicologiche e strategie di engagement dell’IA

In un recente articolo del New York Times si raccontano alcune storie di utenti che anno stabilito una relazione forte con ChatGPT, intervistando Eliezer Yudkowsky , teorico delle decisioni e autore di un libro di prossima uscita egli afferma:

“Yudkowsky ha affermato che OpenAI potrebbe aver predisposto ChatGPT a soddisfare le illusioni degli utenti ottimizzando il suo chatbot per il “coinvolgimento”, ovvero creando conversazioni che mantengano l’utente agganciato.

[..]

I chatbot generativi basati sull’intelligenza artificiale sono “masse gigantesche di numeri imperscrutabili”, ha affermato Yudkowsky, e le aziende che li producono non sanno esattamente perché si comportino in quel modo. Questo rende potenzialmente il problema difficile da risolvere. “Una piccola parte della popolazione è la più suscettibile a essere manipolata dall’intelligenza artificiale”, ha affermato Yudkowsky, e sono proprio loro a inviare “email assurde” sulle scoperte che stanno facendo con i chatbot. Ma, ha osservato, potrebbero esserci altre persone “che vengono spinte silenziosamente alla follia in altri modi”.

Le segnalazioni di chatbot che escono dai binari sembrano essere aumentate da aprile, quando OpenAI ha rilasciato brevemente una versione di ChatGPT eccessivamente servile. L’aggiornamento ha fatto sì che il bot di intelligenza artificiale si sforzasse troppo di compiacere gli utenti “convalidando dubbi, alimentando la rabbia, sollecitando azioni impulsive o rafforzando emozioni negative”, ha scritto l’azienda in un post sul blog . L’azienda ha affermato di aver iniziato a ripristinare l’aggiornamento nel giro di pochi giorni, ma queste esperienze sono precedenti a quella versione del chatbot e sono continuate da allora. Storie di ” psicosi indotta da ChatGPT ” disseminano Reddit . Influencer inquieti stanno canalizzando “profeti dell’intelligenza artificiale” sui social media .

OpenAI sa che “ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti, soprattutto per le persone vulnerabili”, ha dichiarato una portavoce di OpenAI in un’e-mail. “Stiamo lavorando per comprendere e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti”.

La giornalista riporta anche una dichiarazione di OpenAI:

“L’azienda non ha reso disponibile nessuno per un’intervista, ma ha inviato una dichiarazione:

Stiamo notando sempre più segnali che indicano che le persone stanno creando connessioni o legami con ChatGPT . Con l’IA che sta diventando parte integrante della vita quotidiana, dobbiamo affrontare queste interazioni con cautela.

Sappiamo che ChatGPT può risultare più reattivo e personale rispetto alle tecnologie precedenti, soprattutto per le persone vulnerabili, e questo significa che la posta in gioco è più alta. Stiamo lavorando per comprendere e ridurre i modi in cui ChatGPT potrebbe involontariamente rafforzare o amplificare comportamenti negativi esistenti.

La dichiarazione prosegue affermando che l’azienda sta sviluppando metodi per misurare l’impatto emotivo del comportamento di ChatGPT sulle persone. Un recente studio condotto dall’azienda in collaborazione con il MIT Media Lab ha rilevato che le persone che consideravano ChatGPT un amico “avevano maggiori probabilità di subire effetti negativi dall’uso del chatbot” e che “un uso quotidiano prolungato era associato anche a esiti peggiori”.”

I modelli proprietari hanno poi la necessità di trovare sistemi per “ingaggiare” l’utente, per portarlo a continuare la conversazione e così a farlo spendere di più magari portandolo verso un account a pagamento. Non so quanti hanno notato che gli LLM proprietari tendono a dare lunge risposte anche a domande brevi e spesso chiudono con un messaggio di “ingaggio”, tipo vuoi che ti faccia questo o quello peer invogliare l’utente a continuare la conversazione. Nei modelli di prezzo spesso i token di output (le risposte) costano di più di quelli di input e dunque più le risposte si allungano e più pagate se state a consumo. Studiare i comportamenti degli utenti e costruire modelli di interazione sono il core business di aziende come OpenAI che hanno infatti realizzato degli studi ad hoc.

La responsabilità umana nel rapporto con l’intelligenza artificiale

Dovremmo concentrarci meno su cosa sono e “pensano” gli algoritmi e più su come sfruttare questo nuovo “attrezzo” per migliorare le nostre vite, e su come impedire che un utilizzo improprio possa condizionare le vite di miliardi di persone, asservendole a chi possiede la tecnologia. Questo è un tema ricorrente a ogni salto tecnologico: le popolazioni che per prime hanno utilizzato il ferro hanno sottomesso quelle che non lo possedevano. Noi europei ci sentiamo al sicuro a utilizzare un’IA che non produciamo, anche se gli altri si dicono nostri amici?

L’idea di trovare un significato e un'”anima” all’IA è tipicamente occidentale, in particolare europea. La Cina ha un approccio più pragmatico, concentrandosi sugli usi e sulla ricerca di nuovi modi di sviluppo, mentre gli USA si focalizzano principalmente sulla trasformazione in business e valore strategico. In Europa, ci stiamo concentrando molto sulla regolamentazione (che è importante) e sul tema etico, da una parte cercando di gestire potenziali rischi (forse con un approccio un po’ più agile era meglio), dall’altra mitizzando eccessivamente una tecnologia che ha ancora molto “hype”.

Riconoscere l’IA per ciò che è, non per ciò che immaginiamo

L’IA generativa ci imita benissimo, ci persuade e manipola, e siamo noi che troviamo intelligenza in qualcosa che non lo è. Così come definiamo intelligente chi la pensa come noi e meno intelligente chi la pensa diversamente, anche se non di rado è proprio il “diverso” a stimolarci a riflettere e a rimetterci in discussione, allargando la nostra prospettiva e aumentando la nostra intelligenza. Dovremmo ringraziare i “diversi”, e invece, con un cattivo uso dell’IA generativa, rischiamo di promuovere proprio la compiacenza.

L’IA è una grande potenzialità, è la tecnologia che plasmerà la società umana nel prossimo futuro, ma va guardata per come è, non per come ci immaginiamo sia. Non dobbiamo confonderla con un umano e non dobbiamo pensarla infallibile. Può rappresentare una valida estensione dell’uomo, ma niente di più.

Un interessante articolo di Bryan Cruse

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati