Nel caso particolare in cui vogliamo utilizzare l’AI generativa per sfruttare la sua creatività nella produzione di media, questo mezzo è veramente rivoluzionario. Tuttavia, la sua potenza è talmente grande da costituire enormi rischi in campo sociale, soprattutto per quanto riguarda l’autenticità delle informazioni, la privacy e il potenziale abuso da parte di chi potrebbe manipolare tali tecnologie per scopi nocivi.
Le caratteristiche più pericolose, che stanno generando grandi problemi etici e legali nella società, sono infatti numerose.
- Concentrazione delle aziende produttrici di AI generativa.
- L’AI generativa non ha nessun criterio di verità.
- È possibile generare fraudolentemente qualunque tipo di informazione in modo difficilmente distinguibile da quelle vere: le fake news.
- È possibile controllarla per mezzo di filtri sui contenuti vietati, ma chi controlla chi li sceglie?
- Polarizzazione dell’apprendimento (bias), di genere, razza ecc…
- Regole di etichetta nell’interazione con l’utente e modo di porsi che induce l’umano a fidarsi ed entrare in relazioni psicologica- mente negative.
- Comportamenti scorretti dei modelli e allucinazioni.
- Proprietà dei diritti delle informazioni.
- Grande utilizzo di risorse energetiche.
- Sicurezza.
Indice degli argomenti
Concentrazione delle aziende produttrici di AI generativa
L’AI generativa richiede un elevato controllo e un’etica di progettazione e distribuzione dei modelli, ma il controllo e i criteri associati sono ora completamente a discrezione dei produttori, delle poche aziende che hanno la potenza di gestire le enormi quantità di dati e le costose esigenze di elaborazione.
Finora i produttori attuali tendono a evitare il più possibile i pe- ricoli che abbiamo elencato, ma è facile capire (esattamente come nel caso delle armi) quanto sia potente un uso non regolato e illegale, se non criminale, dell’AI generativa su tutta la società. È un rischio reale, poiché il controllo dell’operato di queste aziende è difficoltoso a causa del grande vuoto legislativo e della stessa competizione tra le aziende, che può indurle a legare i controlli più a esigenze di profitto che di etica. Inoltre si stanno diffondendo applicazioni che utilizzano i gran- di modelli per creare sistemi proprietari che sfruttano la conoscenza dei grandi LLM aggiungendovi conoscenze specifiche, e questo porta a potenti applicazioni ancor più difficili da controllare.
Assenza di criteri di verità e proliferazione delle fake news
Dell’assenza di un criterio di verità abbiamo già trattato. Per quanto riguarda le fake news è possibile con pochissimo sforzo e in pochissimo tempo generare qualunque tipo di media assolutamente falso su qualunque argomento.
La generazione di contenuti fake è il rischio socialmente più impressionante in quanto potenzialmente in grado di togliere ogni credibilità ai contenuti dell’informazione.
Il deepfake, in particolare, è una tecnica inquietante, in quanto permette la sintesi dell’immagine umana e la sua utilizzazione per combinare e sovrapporre immagini e video esistenti con video o immagini originali creati con la tecnica GAN.
Esistono tuttavia attive ricerche su algoritmi che riescono a identificare contenuti fake, anche in immagini, riuscendo a svelare la struttura probabilistica con cui i prodotti sono stati ottenuti. Questo è ottenuto utilizzando come strumento la stessa AI1.
Filtri sui contenuti e polarizzazione dell’apprendimento nell’AI
L’algoritmo necessita di filtri sui contenuti vietati perché dalla rete è possibile estrarre qualunque tipo di informazione. È soggetto da bias,
polarizzazione dell’apprendimento. Cosa significa? Significa che la conoscenza non è neutra, estraendo dalla rete le informazioni per l’addestramento essa introdurrà nella sua base di conoscenza tutti i possibili pregiudizi di razza, genere e posizioni politiche, anche non espliciti, che sono presenti in rete.
Regole di etichetta nell’interazione tra AI e utente
Le applicazioni odierne di AI generativa sono state progettate per presentarsi nel modo migliore all’utente, avere una buona interazione, delle vere e proprie regole di etichetta e di educazione per interagire con utenti di culture diverse: ma chi gestisce questi criteri? Con quali regole?
L’approccio volutamente amichevole e rassicurante ha un ulteriore effetto collaterale, inducendo l’utente a fidarsi completamente delle risposte e delle soluzioni dei modelli, a delegare e non verificare le stesse mentre stiamo colloquiando con sistemi senza criterio di verità. L’approccio empaticamente “umano” e coinvolgente che può assumere un modello linguistico di grandi dimensioni LLM può creare relazioni psicologicamente negative con gli utenti. È possibile creare entità che diventano amici, o amanti, che consolano e assecondano, che ti coccolano, entità che con cui creare relazioni percepite come umane, sostitutive di relazioni vere, ma che umane non sono, con tutti i pericoli sociali che implicano tali rapporti.
Comportamenti scorretti dei modelli
Quando un LLM risponde a una richiesta, si pone il preciso obiettivo di soddisfarla. Non abbiamo nessun controllo sul procedimento che utilizzerà per trovare una risposta, ed è possibile che comprenda azioni eticamente scorrette o pericolose (come minimo violazione della privacy). Un LLM è soggetto anche ad allucinazioni, un aspetto piuttosto insidioso, che tratteremo in un paragrafo a parte.
Proprietà dei diritti delle informazioni
Uno dei più spinosi problemi da affrontare è la proprietà dei diritti dei dati utilizzati. Il problema dei diritti e del copyright ha già portato notevoli cambiamenti nella società, ma qui siamo di fronte a un passo ulteriore. Nei normali siti internet si trova ogni tipo di testo, immagi- ne, video, ma sul web è possibile verificare se quanto pubblicato viola
regole di copyright. L’AI generativa invece accede a un’enorme quantità di informazione e produce contenuti nuovi, e in questo processo il filo del copyright si perde nei meandri dei procedimenti oscuri con cui i modelli recuperano le informazioni, mentre dovrebbe essere possibile verificare se le stesse sono soggette a copyright.
Il grande utilizzo di risorse energetiche dell’AI
Dimenticavo: la sostenibilità! Le enormi risorse di elaborazione ri- chiedono un enorme dispendio di energia. Il consumo stimato della versione ChatGPT-3 durante la fase di apprendimento è stato di circa 1287 MWh2, una quantità di energia che può illuminare più di 450 case per un anno. E i modelli sono sempre più potenti.
È una delle ultime ma non meno importanti discussioni, che richiede nuove soluzioni tecnologiche e ottimizzazione del software. Ma già esiste chi pensa alle soluzioni: il cuore dei LLM sono i data center, se non vogliamo portare l’energia ai data center portiamo i data center all’energia. Quindi installarli vicino a fonti di energia geotermica, o in container situati dove l’energia è immediatamente disponibile o viene sprecata.
Sicurezza: la sfida tra i produttori di AI generativa e gli hacker
Per quanto riguarda la sicurezza sono state eseguite simulazioni di attacchi hacker ad applicazioni di AI generativa in grado di alterarne il comportamento3.
Ricordiamo che i programmi di AI generativa sono progettati per evitare di fornire informazioni contrarie all’etica e alla legalità, ma sono pure estremamente flessibili nell’adattarsi alle richieste dell’utente, a tal punto che ci si accorse subito che erano “ingenue”. Ponendo le domande in modo malizioso, ovvero dichiarando scopi diversi per coprire richieste pericolose (per esempio richiedere la formulazione di esplosivi al solo fine di scrivere un romanzo), fornivano le informa- zioni richieste.
Di conseguenza non è certo che le restrizioni che vengono introdotte al loro comportamento non siano aggirabili modificando il contenuto delle richieste. Sono state effettuate prove, e questo è già accaduto, e ora vengono introdotte e aggiornate contromisure.
Occorre inoltre verificare che questo tipo di accesso volutamente malevolo non venga utilizzato da hacker per instillare informazioni o rubare dati sensibili dal sistema.
La sfida tra i produttori di AI generativa e gli hacker si profila es- sere un duello infinito come quello tra i crittografi e i decodificatori. Vi sono due caratteristiche dell’AI generativa che rende questa sfida assai insidiosa.
- I LLM non forniscono informazioni potenzialmente pericolose, sensibili, eticamente o legalmente scorrette, poiché viene impedito, o meglio “represso” dai produttori per mezzo di “istruzioni” mirate, ma le stesse informazioni sono presenti al loro interno. Avete presente le truffe on-line, dove persone ignare vengono in- dotte a fornire denaro inventando le motivazioni più convincenti per vincere i loro timori? Gli hacker continuano a escogitare tipi di richieste che inducano l’AI a contravvenire alle regole instillate dai produttori e a fornire contenuti vietati. E i produttori tentano di prevenire questo tipo di attacco migliorando i metodi di “censura” fornite all’AI.
- Non esiste un “programma” che legge dei “dati” a fronte di “richieste”: in un LLM dati, programma e richieste costituiscono un unico “corpus” testuale. Il testo di una richiesta viene elaborato per attivare una risposta che, come frutto dell’addestramento da altri testi, costruisca la soluzione migliore per soddisfare la richiesta. E la ricerca viene eseguita in quell’unico “calderone” di conoscenza dove coesistono informazioni “corrette” e “scorrette”, non in un database con sezioni “proibite”.

Note
1. Argante E., Tracciare l’Intelligenza Artificiale, https://000.it/editoriali/tracciare-lintelligenza-artificiale, 29 febbraio 2024, (ultima consultazione 21 ottobre 2024).
2. Ludvigsen K.G.A., The Carbon Footprint of ChatGPT, https://towardsdatascience.com/the-carbon-footprint-of-chatgpt-66932314627d, 21 dicembre 2022, (ultima consultazione 21 ottobre 2024).
3. Cristianini N., Machina Sapiens, Il Mulino, Bologna 2024.