La pervasiva diffusione del lato oscuro dell’intelligenza artificiale generativa potrebbe presto manifestarsi, sotto forma di preoccupanti effetti collaterali non particolarmente rassicuranti, in occasione delle imminenti competizioni elettorali.
Le prossime elezioni, un test per la democrazia
Sembra, infatti, destinato a materializzarsi il pericolo di inquinamento comunicativo in grado di manipolare l’opinione pubblica a causa di impercettibili campagne di disinformazione veicolate e viralizzate online su larga scala dalla crescita esponenziale di bot e dai sistemi algoritmici di deepfake che consentono di generare contenuti testuali e multimediali iperrealistici dalle finalità ingannevoli e fraudolente con l’intento di orientare i voti e influenzare l’esito finale del responso popolare.
Le prossime tornate elettorali che si terranno in diverse parti del globo costituiranno un significativo e attendibile test di verifica: valutare, cioè, sotto un profilo pratico, i rischi per la tenuta della democrazia derivanti dall’uso distopico e nocivo delle applicazioni di Intelligenza Artificiale.
E se così fosse, l’impatto dell’Intelligenza Artificiale sulle campagne elettorali sarebbe persino in grado di compromettere gli interessi primari di uno Stato, al punto da colpire direttamente l’essenza vitale del sistema di rappresentatività politica da cui discende la diretta legittimazione decisionale degli apparati istituzionali nell’esercizio delle relative funzioni?
Alla ricerca di soluzioni per evitare la concreta realizzazione delle minacce
Alcuni scenari tratteggiati sembrano avallare una simile prospettiva che, pertanto, lungi dall’essere sottovalutata, dovrebbe essere presa in considerazione con la necessaria attenzione alla ricerca di efficaci soluzioni da adottare, in funzione preventiva, per evitare la concreta realizzazione delle minacce paventate, a maggior ragione in considerazione degli attuali livelli di performance raggiunti dalle recenti scoperte tecnologiche che rendono insidiosa e inquietante la capacità di auto-apprendimento dell’Intelligenza Artificiale.
Le insidie maggiori dell’IA in ambito elettorale
Lo rileva, ad esempio, un articolo di approfondimento del “The Guardian”, da cui si evince che l’eventualità – tutt’altro che remota e aleatoria – di una proliferazione esponenziale di propaganda politica “tossica” possa provocare “interferenze elettorali interattive su larga scala” nell’ambito di sofisticate strategie di polarizzazione comunicativa finalizzate, tra l’altro, a radicalizzare lo scontro divisivo tra opinioni, incentivando la condivisione di orientamenti razzisti, estremisti, discriminatori, nonché falsi e fuorvianti, facilmente viralizzabili online per manipolare il dibattito pubblico.
Tra le principali insidie descritte nell’articolo, preoccupa soprattutto l’impressionante rapidità di perfezionamento evolutivo delle tecniche di deepfake che stanno raggiungendo negli ultimi anni impensabili e sorprendenti risultati di programmazione algoritmica in grado di clonare voci e generare contenuti multimediali a costi ridotti e con notevole velocità di elaborazione: si tratta, dunque, di seri fattori di destabilizzazione del flusso comunicativo online, al punto da rendere credibile il fondato timore di ripercussioni negative sulle prossime competizioni elettorali, nella misura in cui si ricorrerà massivamente alla creazione di campagne propagandistiche mirate per confondere o influenzare le emozioni degli elettori, nonché danneggiare avversari politici, mediante l’elaborazione di strategie di micro-targeting sempre più sofisticate nell’ambito di infallibili sistemi di Intelligenza Artificiale in costante apprendimento automatico.
Lacune regolatorie, ritardi e criticità
Fino a che punto le persone sono in grado di riconoscere – sempre e in anticipo – le eventuali manipolazioni informative generate da riproduzioni false e fuorvianti, sia pure iperrealistiche immesse nell’ambiente digitale?
In che misura un simile fenomeno “tossico” potrebbe incidere sulla libertà di scelta degli elettori?
Esiste, attualmente, un livello di consapevolezza sociale adeguato per affrontare sfide del genere? E, in ogni caso, sono efficaci le azioni di contrasto predisposte per disinnescare gli interventi predatori di chi intende sfruttare tali potenzialità negative per conseguire vantaggi politici o altri interessi pregiudizievoli per la stabilità generale della società e la tenuta della democrazia?
Di fronte a tali quesiti, le lacune regolatorie attualmente esistenti, i ritardi e le criticità che si registrano sul piano normativo anche rispetto all’obsolescenza dei vincoli prescritti per l’organizzazione e la supervisione delle campagne elettorali, aggravano oltremodo il panorama delineato.
Se anche la politica sfrutta la potenza comunicativa dell’IA
La politica, però, sta cominciando a rendersi conto della “potenza” comunicativa di cui sono dotate le applicazioni di Intelligenza Artificiale, facendone un uso sempre più sistemico e generalizzato per finalità di marketing elettorale performante. Questo, senza però forse prendere in debita considerazione anche gli effetti collaterali di una simile tendenza, come in tal senso rileva un recente articolo del “The New York Times” che riporta una serie di casi di campagne propagandistiche ideate con sistemi di Intelligenza Artificiale per ottimizzare le interazioni sociali tra politici e utenti, ridurre i costi e profilare i dati raccolti, a riprova di un fenomeno in costante crescita destinato ad esplodere rapidamente nei prossimi anni, al punto da influenzare persino l’imminente elezione presidenziale USA prevista nel 2024, che potrebbe essere ricordata nella storia come la prima elezione robotica gestita da bot e algoritmi.
Se il progresso innovativo costituisce indubbiamente un decisivo fattore di evoluzione positiva dell’umanità, grazie alla fruizione generale di straordinari benefici in grado di migliorare gli standard culturali, economici e sociali esistenti, al contempo, però, la tendenza a “cavalcare” con (forse) un po’ troppa imprudente leggerezza le mode tecnologiche del momento potrebbe rivelarsi un pericoloso “effetto boomerang” potenzialmente letale per le persone, proprio sottovalutando i pericoli che lo sviluppo delle applicazioni di Intelligenza Artificiale Generativa sta determinando, anche a causa di una disinformazione fuori controllo legata a tali processi.
Conclusioni
La circolazione di fake news, peraltro, rappresenta soltanto la “punta dell’iceberg” rispetto alle svariate e inedite insidie causate dalla progettazione dei nuovi modelli linguistici di grandi dimensioni addestrati per la raccolta massiva di dati e contenuti processati dalle implicazioni torbide e oscure ancora non del tutto decifrabili, a maggior ragione se – come presto o tardi accadrà – l’impatto pervasivo dell’Intelligenza Artificiale si indirizzerà massivamente sulla gestione delle campagne elettorali con il rischio di manipolare ampie percentuali di elettori al punto da creare un permanente clima di sfiducia generale in grado di erodere e minare la tenuta della democrazia.
Alla luce dei prospettati problemi, resta pertanto centrale l’esigenza di assicurare la salvaguardia “umanocentrica” della società e della politica, tutelando in via prioritaria la stabilità degli attuali sistemi democratici rispetto ai pericoli causati dal lato oscuro dell’Intelligenza Artificiale.
Facile a dirsi, più difficile a realizzarsi.