La nuova versione di GPT-3

InstructGPT e la ricerca di un’IA equa: è un obiettivo realistico?

Pur migliorando il suo modello, eliminando alcuni dei pregiudizi più tossici che affliggevano il suo predecessore, OpenAI non ha risolto tutte le criticità con il suo InstructGPT. Ecco perché

22 Mar 2022
Marco Martorana

avvocato, studio legale Martorana, Presidente Assodata, DPO Certificato UNI 11697:2017

Lucas Pinelli

Studio legale Martorana – Vice President for Marketing, ELSA Belgium

In una comunicazione della fine dell’anno 2021, OpenAI ha comunicato di aver creato una nuova versione di GPT-3, capace di eliminare alcuni dei pregiudizi più tossici che affliggevano il suo predecessore.

Il laboratorio con sede a San Francisco afferma, così, che il modello aggiornato, chiamato InstructGPT, è più efficace nel seguire le istruzioni delle persone che lo utilizzano, noto come “allineamento” nel gergo dell’IA, e quindi produce un linguaggio meno offensivo, meno disinformazione e meno errori in generale.

Tutto risolto, quindi? Non proprio. Vediamo perché.

GPT-3, Polimi: “Quali applicazioni business per il nuovo modello OpenAI”

Cos’è GPT-3

GPT-3 è un sistema di intelligenza artificiale sviluppato da OpenAI, la società di ricerca sull’IA co-fondata da Elon Musk, e in grado di creare contenuti scritti con una struttura linguistica degna di un testo scritto da un essere umano. Agli occhi di molti esperti, questa invenzione rappresenta uno dei più importanti progressi fatti nel campo dell’IA negli ultimi anni. È anche la più grande rete neurale mai creata finora.

WEBINAR
19 Maggio 2022 - 12:00
Hyperautomation: come ottimizzare efficienza e flessibilità nell’erogazione dei servizi
Digital Transformation
Finanza/Assicurazioni

Il termine GPT-3 è l’acronimo di “Generative Pre-trained Transformer 3”. Questo modello ha 175 miliardi di parametri, ovvero i valori che una rete neurale cerca di ottimizzare durante l’addestramento. Per fare un confronto, il suo predecessore GPT-2 ne aveva già 1,5 miliardi.

In poche parole, quindi, GPT-3 genera testo utilizzando algoritmi pre-addestrati. Ciò significa che gli algoritmi sono stati alimentati con i dati necessari per completare il loro compito. Nel dettaglio, questi algoritmi sono stati addestrati da circa 570GB di testi raccolti su Internet.

Tuttavia, modelli linguistici di grandi dimensioni come GPT-3 vengono addestrati utilizzando vasti corpi di testo, maggiormente raccolti appunto sul web, in cui si può trovare il meglio e il peggio di ciò che le persone possono scrivere. Questo è un grande problema per i chatbot e gli strumenti di generazione di testo attuali che assorbono anche il linguaggio tossico da testi che possono rivelarsi razzisti, misogini o che contengono pregiudizi più insidiosi e radicati, così come le fake news.

Infatti, per molto tempo, OpenAI stessa ha ritenuto il suo modello di elaborazione del linguaggio naturale troppo pericoloso per essere pubblicato.

InstructGPT: un modello più equo

In pratica, la nuova funzione consente adesso agli sviluppatori di mettere a punto facilmente GPT-3 per personalizzare il modello in base alle proprie esigenze applicative.

Senza questo grado di personalizzazione, GPT-3 poteva già svolgere un’ampia varietà di attività: ricerca semantica, analisi del sentimento, traduzione, generazione di contenuti o riepilogo automatico del testo, ecc. Il perfezionamento, basato su testo di esempio associato a compiti specifici, però, promette di produrre risultati ancora più adeguati. Questo perfezionamento riduce anche i costi e migliora la latenza. Il miglioramento sarebbe già visibile alimentando il modello con meno di 100 esempi personalizzati.

Precedenti tentativi di affrontare il problema includevano il filtraggio del linguaggio offensivo dal set di addestramento. Ma ciò può ridurre le prestazioni dei modelli, soprattutto nei casi in cui i dati di addestramento sono già scarsi, come il testo di gruppi minoritari.

I ricercatori di OpenAI hanno cercato di risolvere questo problema iniziando con un modello GPT-3 completamente addestrato. Hanno quindi aggiunto un altro ciclo di formazione, utilizzando l’apprendimento per rinforzo per insegnare al modello cosa dovrebbe dire e quando, in base alle preferenze degli utenti umani.

Con questa mossa, OpenAI ha voluto reindirizzare i suoi sforzi per creare un modello più accurato, onesto e innocuo. Tuttavia, è difficile definire caratteristiche come l’onestà nel contesto dei modelli linguistici. Se l’onestà può essere definita come il grado in cui il comportamento espresso si correla con le convinzioni interne, quest’ultime sono difficili da individuare nella “scatola nera” che rappresenta un modello linguistico. Anche definire cosa è dannoso a volte può essere complicato. In definitiva, dipende dall’applicazione specifica del modello nel mondo reale. Non è la stessa cosa distribuire un modello di generazione del linguaggio generico rispetto a un modello di rilevamento della tossicità.

I rischi rimanenti

Pur migliorando il suo modello, OpenAI non ha risolto tutte le criticità con il suo InstructGPT.

Come innanzi accennato, i miglioramenti si basano essenzialmente sulla personalizzazione dell’addestramento. Un utente malintenzionato, tuttavia, potrebbe comunque trarne vantaggio per rendere il modello meno onesto e utile e più dannoso, contrariamente a quanto voluto da OpenAI. Trattasi di un modello ancora più potente del GPT-3, il danno potrebbe risultare maggiore.

Per lo stesso motivo, InstructGPT può rivelarsi più tossico se gli viene richiesto. Infatti, l’incremento della tossicità è maggiore quando viene specificamente richiesta rispetto al decremento quando viene richiesto di essere rispettoso. I modelli sono anche generalmente più parziali rispetto a GPT-3. Una possibile spiegazione è che InstructGPT è più sicuro delle sue risposte indipendentemente dal fatto che si impegni in stereotipi, come propongono gli autori. Un altro motivo potrebbe essere che l’allineamento del modello con un gruppo specifico di persone lo disallinea con altri gruppi e ciò si riflette sulla valutazione del benchmark.

Conclusioni

In conclusione, l’opera di OpenAI si inserisce in un contesto di “democratizzazione” dell’IA volto a rendere gli algoritmi disponibili al pubblico, in modo tale che esso possa studiarli, capirli e quindi usarli meglio. Ciò nonostante, come ogni altra cosa, l’IA non è stata creata dal nulla, è un prodotto della società e come tale eredita inesorabilmente tutti i nostri pregiudizi e preconcetti. Se è necessario ridurre al minimo i pregiudizi e le criticità dell’IA, bisogna allo stesso tempo essere consapevoli che l’intelligenza artificiale non potrà mai essere perfettamente equa: essa è infatti tanto parziale quanto noi, esseri umani.

@RIPRODUZIONE RISERVATA

Articolo 1 di 4