Nel nostro panorama digitale in continua evoluzione, la stessa nozione di “intelligenza” sta subendo una profonda trasformazione. Tradizionalmente, l’intelligenza è stata associata alla precisione, al rigore e a un impegno incrollabile nei confronti dei fatti.
Tuttavia, sia il discorso umano che le moderne intelligenze artificiali rivelano un quadro più sfumato: quello in cui la capacità di persuadere non coincide necessariamente con l’obbligo di dire la verità.
Oggi stiamo assistendo all’ascesa di sistemi in grado di creare testi con una straordinaria raffinatezza retorica, indipendentemente dalla loro base fattuale. Questo fenomeno presenta sia opportunità straordinarie che rischi significativi.
Le due facce dell’intelligenza
L’intelligenza, nella sua essenza, implica la capacità di elaborare informazioni, trarre conclusioni e comunicare idee in modo efficace. Storicamente, queste capacità sono state impiegate per avanzare nella scoperta scientifica, informare il dibattito pubblico e migliorare i processi decisionali. In tali contesti, l’intelligenza è sinonimo di ragionamento basato su prove e di adesione alla verità.
Eppure, l’intelligenza non è un concetto monolitico. Comprende anche l’arte della persuasione: la capacità di presentare idee in un modo che risuoni emotivamente e intellettualmente con il pubblico. In molti ambiti, come la politica, la pubblicità e la comunicazione strategica, i messaggi più efficaci non sono sempre quelli più precisi dal punto di vista fattuale, bensì quelli che affascinano e convincono. Questa duplice natura dell’intelligenza ci ricorda che essere persuasivi può talvolta oscurare la necessità di essere veritieri.
L’intelligenza generativa: il fenomeno del “generatore di xxx”
Pochi sviluppi illustrano questa dicotomia in modo più vivido rispetto all’intelligenza artificiale generativa.
Sistemi come ChatGPT sono progettati per produrre testi di livello umano mescolando frammenti di affermazioni vere, false e ambigue. Il loro output è pensato per suonare convincente, anche quando le affermazioni sottostanti mancano di verifica. Questa caratteristica ha portato alcuni esperti a tracciare un parallelo provocatorio con un concetto esplorato dal filosofo Harry Frankfurt.
Il professore Alan Blackwell, dell’Università di Cambridge, ha descritto ChatGPT come un “generatore di sciocchezze” (“bullshit generator”), un termine che, in questo contesto, si allinea alla definizione accademica di Frankfurt piuttosto che all’uso quotidiano del termine. Secondo questa definizione, la “sciocchezza” non consiste semplicemente nel mentire, ma nel creare affermazioni prive di un autentico impegno nei confronti della verità.
L’osservazione di Blackwell sottolinea un punto critico: non esiste un algoritmo integrato in ChatGPT che verifichi la correttezza fattuale. La sua funzione primaria è generare testi retoricamente persuasivi, indipendentemente dalla loro veridicità.
Comprendere l’AI generativa: uno strumento di possibilità
L’intelligenza artificiale generativa opera apprendendo schemi da enormi set di dati e producendo testi che imitano il linguaggio umano. Non “pensa” né “crede” come un essere umano, bensì sfrutta correlazioni statistiche per generare contenuti coerenti e spesso coinvolgenti. Questo processo, pur mescolando talvolta fatti con supposizioni, non è concepito per ingannare, ma riflette la diversità e la complessità dei dati su cui si basa.
La preoccupazione non è tanto la tecnologia in sé, quanto piuttosto il modo in cui viene implementata e regolamentata. Come ogni potente tecnologia, dall’invenzione della stampa a Internet, l’intelligenza artificiale può essere impiegata per il bene o per il male. La sua capacità persuasiva può essere utilizzata per favorire l’innovazione, educare e informare, ma senza una guida adeguata, può anche essere sfruttata per diffondere disinformazione o creare narrazioni sensazionalistiche.
Il ruolo dell’intelligenza emotiva nell’AI
L’intelligenza non si limita alla capacità di elaborare informazioni: include anche la comprensione e la gestione delle emozioni. L’intelligenza emotiva svolge un ruolo cruciale nella comunicazione umana e, di conseguenza, nella persuasione. Quando l’AI generativa impara a riconoscere e imitare toni emotivi, il rischio di manipolazione cresce. La capacità di modulare il linguaggio per suscitare emozioni forti può rendere le fake news ancora più convincenti.
Tuttavia, questa stessa capacità potrebbe essere usata per scopi positivi. Ad esempio, chatbot empatici potrebbero offrire supporto emotivo alle persone in difficoltà o migliorare l’interazione con i clienti nei servizi digitali.
Le armi della persuasione usate da AI
L’AI generativa si avvale di molteplici tecniche persuasive per massimizzare l’efficacia dei suoi messaggi. Queste strategie sono ispirate a modelli psicologici e tecniche di comunicazione adottate nel marketing, nella politica e nei media. Alcune delle più diffuse includono:
L’autorità simulata
L’AI può generare testi con un tono di autorevolezza e competenza, facendo apparire le informazioni come provenienti da fonti esperte, anche quando non sono supportate da evidenze concrete.
La ripetizione
I messaggi ripetuti più volte tendono a essere percepiti come più credibili. L’AI può sfruttare questa tecnica per rafforzare determinate convinzioni e modellare l’opinione pubblica.
L’appello alle emozioni
Attraverso l’uso di un linguaggio carico di emozione, l’AI può influenzare lo stato d’animo del lettore e condizionare le sue decisioni, spesso a discapito dell’analisi razionale.
La personalizzazione del messaggio
Grazie alla raccolta di dati sugli utenti, l’AI può adattare i messaggi in base alle preferenze e ai comportamenti individuali, rendendo la comunicazione più efficace e persuasiva.
L’uso di bias cognitivi
L’AI può sfruttare pregiudizi cognitivi noti, come la conferma del bias (cercare e dare credito solo a informazioni che confermano le proprie convinzioni) o l’effetto di ancoraggio (dare eccessiva importanza alla prima informazione ricevuta su un argomento).
Comprendere queste strategie è fondamentale per sviluppare un approccio critico nei confronti delle informazioni generate dall’AI e per costruire contromisure efficaci contro la disinformazione.
Strategie per mitigare i rischi
- Algoritmi di verifica dei fatti: investire in AI in grado di confrontare affermazioni con database verificati e fonti affidabili potrebbe aiutare a mitigare il rischio di disinformazione persuasiva.
- Collaborazione uomo-AI: combinare le capacità creative dell’AI con il giudizio critico degli esperti umani può garantire un output più equilibrato e accurato.
- Educazione pubblica: dotare il pubblico di strumenti di alfabetizzazione mediatica è essenziale per sviluppare un senso critico nei confronti delle informazioni che circolano online.
- Linee guida etiche: la definizione di standard etici per lo sviluppo e l’uso dell’AI è fondamentale per garantire che questa tecnologia venga impiegata a beneficio della società.
Sfruttare la persuasione con responsabilità
La doppia natura dell’intelligenza, capace di trasmettere sia verità basate sui fatti che false narrazioni persuasive, rappresenta una delle sfide più grandi del nostro tempo. Mentre l’AI generativa continua a evolversi, la sua capacità di modellare le narrazioni e influenzare le opinioni non può essere sottovalutata.
Adottare una visione più sfumata dell’intelligenza—che celebri il potere persuasivo senza sacrificare l’integrità fattuale—è essenziale per proteggere il valore del dibattito informato e per costruire un futuro in cui la tecnologia sia al servizio della comprensione e del progresso autentico.