Questa Intelligenza Artificiale di cui tanto si parla, che cosa è in realtà? Non è nata ieri, eppure prima di questi ultimi anni non ha mai riempito le pagine dei giornali e i discorsi dei governanti. Che cos’è? Perché c’è un “prima” e un “dopo” in cui è diventata dea e mostro a seconda delle interpretazioni?
Indice degli argomenti
Le origini dell’intelligenza artificiale generativa
Vi assicuro che è da un po’ che ce l’abbiamo intorno e la utilizziamo. Più di settant’anni fa, tra gli anni Quaranta e Cinquanta dell’altro secolo, scienziati e tecnologi iniziarono a pensare che le “macchine” avrebbero potuto acquisire capacità intelligenti tipiche degli esseri umani. È una storia antica quella degli “automi” ma solo in quegli anni si iniziò a pensare che i progressi della elettrotecnica e ancor più la disponibilità dei primi “computer” aprissero la strada a un nuovo mondo. Perché la teoria alla base dei computer, di cui padre fu Alan Turing, prometteva di poterli programmare in modo da far compiere loro qualunque tipo di operazione.
Adesso si parla di Machine Learning, ma già nel 1959 era stato scritto il primo programma che giocava a scacchi e imparava dai propri errori e la definizione così di successo di Intelligenza Artificiale è del 1956. E poi? Molte idee ma elaboratori troppo poco potenti. Negli anni Ottanta ci fu la fiammata dei Sistemi Esperti, che erano in grado di eseguire diagnosi, risolvere problemi, ma la cui diffusione fu limitata perché erano basati su regole fisse da scrivere una per una, senza capacità di apprendimento autonomo e quindi troppo rigidi per operare nel mondo reale, così vario e incerto. Ma non crediate che quei primi algoritmi non siano entrati nell’uso comune: sono i nonni dei navigatori per auto che utilizziamo tutti, ci hanno accompagnato da decenni comprendendo le nostre parole al telefono e fornendo semplici risposte, tutti compiti utilissimi ma limitati a contesti ben definiti.
L’evoluzione verso il deep learning e le reti neurali
È con la metà degli anni Ottanta che si giunge, grazie al progresso dei computer, a progettare programmi in grado di apprendere, detti reti neurali. Anche questo un termine fuorviante, benché questi programmi, fin dal loro inizio, fossero realmente in grado di fornire prestazioni nell’apprendimento simili a quelle del nostro cervello, ne “copiavano” non tutti i dettagli ma solo alcuni aspetti di elaborazione delle informazioni.
Arriviamo a questo millennio senza grande scalpore: da tempo siamo abituati a programmi di riconoscimento automatico di immagini, che con l’aumento della potenza dei computer e progettati con architetture sempre più complesse hanno portato all’era attuale del Deep Learning. É da un po’ di tempo che un veicolo autonomo è in grado di riconoscere in tempo reale tutti gli oggetti circostanti senza perdere un colpo… ma sui media e sui giornali ancora niente di ché. Qual è stata la svolta?
I fattori alla base dell’esplosione dell’intelligenza artificiale generativa
Innanzitutto, già da molti anni aziende come Google si trovavano a poter disporre di enormi quantità di dati raccolti in rete, la potenza degli elaboratori continuava a crescere e con essa la possibilità di progettare algoritmi di Deep Learning sempre più efficienti.
Ma c’è un altro fattore fondamentale di cui tenere conto: da quando personaggi come Steve Jobs compresero quanto poteva essere conveniente trasformare i telefoni in veri e propri computer, una immensa quantità di persone si era trovata tra le mani elaboratori di una potenza incredibilmente più elevata di quelli che un tempo venivano usati nella ricerca scientifica. Ebbene noi tutta questa potenza di calcolo l’abbiamo utilizzata per trovare informazioni su Internet, per comunicare, per eseguire delle applicazioni, ma in realtà era chiaro che le potenzialità di smartphone e PC potevano essere una porta per la diffusione di applicazioni ancora più potenti. Ma quali?
Tutto iniziò quando ci si rese conto che alcuni algoritmi presentavano l’interessante proprietà. di eseguire l’analisi di dati che variano nel tempo e predire l’andamento futuro degli stessi. Questo era sempre stato uno dei grandi obiettivi della ricerca. Già in statistica erano stati creati potenti algoritmi per quella lucrosa attività che è la predizione dell’andamento della Borsa e l’applicazione delle architetture di Deep Learning li rese ancora più efficienti, ma in ambiti moto particolari.
Il vero colpo di genio venne da un gruppo di studiosi che si occupavano di migliorare i sistemi di traduzione automatica. [1]
La rivoluzione del transformer nell’intelligenza artificiale generativa
I primi sistemi di questo tipo erano basati sugli algoritmi che utilizzavano regole esplicite cui abbiamo accennato prima: l’algoritmo era in grado di applicarle ai testi e comprenderne la struttura sintattica. Sappiamo benissimo che le lingue non sono precise ma presentano frasi ambigue e ogni frase che diciamo implica la conoscenza del contesto in cui la usiamo e dei diversi significati delle parole. Fornire a un’applicazione software queste capacità aggiungendo regole era semplicemente impossibile, se non in contesti molto limitati, come accadeva nei risponditori telefonici.
Mettere a disposizione di tutti un fantastico traduttore universale sarebbe stata una conquista notevole. Potendo lavorare con reti neurali complesse a più “strati”, collegati da moltissime connessioni, appunto il Deep Learning, questi ricercatori si interrogarono su come noi umani impariamo le lingue: era chiaro che un bambino impari la madrelingua ascoltando, quindi da esempi e non studiando la grammatica, e che dagli esempi piano piano impari a esprimersi in modo sempre più corretto sintatticamente. Non solo, ma è in grado di assimilare anche i loro significati: le frasi contenenti “mamma” e “pappa” attireranno subito la sua attenzione e così via. Inoltre, quando il piccolo sente dire “ora arriva la…” si può star certi che si aspetta la parola “pappa”.
Occorreva un modello complesso che riuscisse a modellare le stesse caratteristiche: utilizzare un algoritmo in grado di apprendere da esempi, ma in grado anche di porre “attenzione” alle relazioni tra le parole e che inoltre “ricordasse” la successione temporale delle parole stesse in una frase e fosse in grado di “prevedere” la parola successiva, come siamo in grado di fare noi.
Inventarono così il “Transformer”, che poteva venir addestrato inserendo grandi quantità di coppie di frasi identiche in due lingue diverse, ne memorizzava sia le relazioni sintattiche sia il significato in forma numerica e, data una nuova frase in una lingua, era in grado di prevedere tutte le parole della stessa frase in una seconda lingua con la sintassi corretta.
Ma come fa un simile sistema a comprendere i “significati”? Per noi umani, con la nostra intelligenza complessa, il significato è fortemente legato all’esperienza “corporea” del mondo.
In realtà per un algoritmo “significato” non è altro che il risultato statistico di tutti i modi in cui un termine viene utilizzato in una frase. Vediamo un esempio: se noi diciamo: “Sei una bomba” utilizziamo il significato di “bomba” come modo di dire, mentre se diciamo “Attenzione c’è una bomba!” è una cosa ben diversa. Ebbene fornendo una quantità enorme di esempi l’algoritmo assocerà il termine “bomba” a parole diverse e anche se non avrà, come noi, paura della bomba, ne memorizzerà i significati nei diversi contesti.
La nascita dei chatbot: l’IA generativa dialogante
Insomma, questa “macchinetta” da una frase in ingresso in una lingua “generava” parola per parola la frase in una seconda lingua. Questo dopo un addestramento con coppie di frasi identiche nelle due lingue. Ma cisi accorse ben presto che la parte più interessante dell’algoritmo era quella che “generava” la traduzione. Perché questa parte memorizzava relazioni sintattiche e significati in una lingua con il solo accorgimento di inserire in ingresso enormi quantità di testi su tutti gli argomenti. Ma avere memorizzato tutto ciò in una lingua significava aver memorizzato in forma numerica una intera enciclopedia, inoltre un’enciclopedia in grado di capire le mie domande, quindi perché non interrogarla? E perché non investire soldi per diffonderla? E utilizzare proficuamente l’immensa quantità di dati disponibili? Così sono nati i chatbot.
I chatbot e l’intelligenza artificiale generativa multimodale
Ma i chatbot si dimostrano molto abili a rispondere a tono e cambiare addirittura le risposte se richiediamo, ad esempio, un riassunto per uno studente universitario piuttosto che per un bambino.
Per ottenere ciò i modelli dei chatbot, chiamati Large Language Models, vennero fatti interagire con schiere di operatori umani per educarli a rispondere alle richieste che questi facevano. Vennero eseguite sessioni di addestramento che permettevano al sistema di migliorare sempre di più l’approccio con l’utente in modo da diventare quasi indistinguibili da un umano.
I modelli erano stati istruiti nutrendoli con immense quantità di dati anche potenzialmente pericolosi o eticamente censurabili, quindi si eseguirono sessioni di addestramento in cui si fornirono le “regole” da seguire su argomenti sensibili. [2]
Si fece poi un altro ulteriore passo in avanti: le applicazioni di intelligenza artificiale non distinguono tra testi o immagini o segnali di vario genere, vedono solo numeri, non fu quindi poi così difficile fondere sistemi di generazione di immagine che già esistevano con quelli di generazioni di testi e ottenere quindi quelle incredibili capacità che permettono di descrivere una immagine in forma testuale e generarle o produrre testi che descrivono immagini fornite al sistema.
Questo può sembrare un aspetto folkloristico, ma in realtà significa una novità di importanza fondamentale, in quanto continuava a esserci la necessità di addestrare i sistemi di riconoscimento di immagini con enormi quantità di dati etichettati, dove ogni immagine è accompagnata da una sua descrizione e ciò implicava l’utilizzo di migliaia di persone spesso sottopagate per fornire questo servizio di etichettatura. Ebbene ora è possibile etichettare qualunque tipo di immagine utilizzando l’intelligenza artificiale ed ecco quindi un potenziamento incredibile di un’ulteriore fascia di applicazioni di riconoscimento.
L’IA generativa nei dispositivi mobili e il problema dell’affidabilità
Il chatbot, l’applicazione che mancava ad una vera rivoluzione era strato trovato: portare l’IA sul telefonini era qualcosa che già avveniva con le varie applicazioni, a partire dai navigatori, ma equipaggiare il telefonino con un’entità dialogante significava mettere a disposizione di milioni di persone un’entità intelligente capace di rispondere a qualunque richiesta. Qui sorse il problema di quanto queste risposte fossero attendibili e quindi di come utilizzare questi fantastici strumenti nella ricerca e nell’industria.
il passo successivo è stato quello di utilizzare questi modelli non come interfacce per la richiesta generale di informazioni, ma sfruttare la loro sempre crescente potenza per migliorarne le capacità di ragionamento, soluzione di problemi e affidabilità e inoltre usarle come interfacce in linguaggio naturale in grado di gestire altri sistemi di intelligenza artificiale progettati per compiti specifici, come la diagnosi di guasti e il controllo qualità.
La natura generativa dell’intelligenza artificiale moderna
Ma per comprendere la portata di questa rivoluzione ritorniamo sul fatto che questa IA è “generativa”.
Fino ad ora con computer e smartphone cercavamo informazioni, analizzavamo dati, eseguivamo compiti specifici, come il riconoscimento di immagini e il calcolo. Ma le applicazioni di IA generativa sono dotate di una capacità del tutto innovativa, quella non solo di ricavare informazioni, analizzarle o fornire risultati a problemi, ma di generare autonomamente nuove informazioni sia in formato di testo che in formato di immagini, video o codice per software.
Lasciamo un attimo da parte la “qualità” di ciò che viene generato, anche perché il progresso nel campo è talmente veloce che il chatbot domani mattina sarà più preciso di oggi e saranno rilasciate applicazioni che assicurano maggiori livelli qualitativi nelle prestazioni.
La vera rivoluzione è che questi modelli di IA generano “conoscenza”: per la prima volta nella storia dell’uomo ci confrontiamo con una entità che dialoga con noi ed esprime un comportamento intelligente, “come se” pensasse, traesse conclusioni e generasse nuovi prodotti. Lasciamo da parte anche la discussione sul fatto che non è l’intelligenza umana, che è pericoloso non sapere esattamente come arriva ai risultati, cosa può fare e potrà fare, guardiamo la nostra pratica di oggi: chiediamo informazioni per la vita quotidiana, programmiamo i nostri viaggi e non solo ci risponde, ma propone, abbiamo bisogno di scrivere un testo, per qualunque motivo, lo fa o lo aggiusta. Qualunque lavoro faccia può eseguirne una parte o proporre lei stessa soluzioni.
I rischi della delega all’intelligenza artificiale generativa
C’è una affermazione che è senz’altro vera:
L’IA ha un certo grado di creatività, come prodotto della rielaborazione dell’immensa quantità di dati con cui è stata addestrata ma non ha “immaginazione”, non può immaginare cose mai viste prima come facciamo noi e comunque esegue i suoi compiti in un modo diverso da quello che farebbe un umano e non si sa come giunge alle sue conclusioni.
Ma li esegue. Nella nostra vita quotidiana, nel nostro lavoro, anche nel più creativo, qual è la percentuale di tempo e fatica che impieghiamo nel risolvere problemi che richiedono grandi fiammate di ingegno e immaginazione?
La maggior parte del tempo lo impieghiamo nello svolgere compiti che questa IA può eseguire velocemente e con la stessa qualità con cui li eseguiremo noi, se non maggiore e a noi tocca solamente dare una controllatina.
Chi resiste alla tentazione di delegare a questa IA? Lo studente che è indietro con i compiti? L’architetto che ha un progetto di poco conto da ideare senza dover rifare il Guggenheim Museum?
È questo un rischio reale dell’IA generativa, oltre che un’opportunità.
Tutte le tecnologie hanno cambiato la nostra percezione del mondo e la nostra mente: nei miei bisnonni il concetto di spazio era quello percorribile dalla carrozza, il concetto di energia era fatica di uomini e animali. E quando le persone si riunivano davanti alla televisione, dopo che già la radio aveva soppiantato i racconti dei vecchi davanti al fuoco?
Un progresso che non si è mai arrestato. E negli ultimi quarant’anni abbiamo delegato le operazioni alle calcolatrici, i numeri di telefono allo smartphone, le mappe stradali al navigatore, la ricerca bibliografica a Internet. Questi sono compiti che richiedevano spreco di tempo, tempo che abbiamo utilizzato in modo più utile e possiamo dire che la nostra capacità intellettiva ha perso poco.
Ma oggi deleghiamo alla macchina parte del lavoro che la nostra mente esegue per risolvere problemi complessi e produrre conoscenza. È questo il punto, poiché oggi che viviamo con l’IA, l’asticella si alza: se, a casa o sul lavoro, ci abituiamo a delegare la produzione di conoscenza all’IA, ne perdiamo il controllo e, quel che è peggio, perdiamo l’abitudine e quindi la capacità di pensare. Oggi le faccio fare questo, domani anche quello, ché ora lo fa bene! Intanto io ho l’immaginazione! Il lampo di genio!
Peccato che un umano, per arrivare al lampo di genio, debba aver imparato a pensare sempre, anche nelle piccole cose. Avete presente quanti lavori manuali sapevano fare i vostri nonni che voi non siete in grado di fare, perché non avete imparato o avete disimparato non facendoli? Dobbiamo essere ben consci di ciò che deleghiamo all’IA generativa. Per gli adulti è un problema di giudizio, di capire quando è utile e quando invece è meglio ripensare al problema prima di utilizzarla, per non perdere il filo e il controllo del problema stesso, ma per le nuove generazioni?
La relazione con l’IA è la relazione con una entità che dialoga con noi in modo “apparentemente” intelligente ma che produce risultati che alla fine osserviamo essere “realmente” intelligenti, paragonati a quelli ottenuti da un umano. Ogni relazione cambia entrambi gli attori: la relazione con l’IA cambia la nostra mente e se la nostra mente è in formazione, come quella dei ragazzi, può avere effetti preoccupanti: già l’utilizzo eccessivo dello smartphone ha effetti negativi, figuriamoci uno strumento che ci evita di pensare e ci risolve un sacco di problemi.
Strategie per convivere con l’intelligenza artificiale generativa
Si può evitare, e il punto chiave è la formazione. Noi adulti dobbiamo continuare ad utilizzare l’IA con senso critico, sfruttando le nostre competenze per farle generare più efficientemente prodotti che poi però dobbiamo analizzare e verificare e dobbiamo sfruttare il tempo guadagnato per migliorare i risultati ottenuti dall’IA. Dal punto di vista del lavoratore questo significa una grande opera di riqualificazione e adattamento alla convivenza con l’IA e di formazione specifica per tutti i nuovi lavori che si creeranno, come è accaduto nelle altre rivoluzioni industriali. Vi saranno perdite di lavoro, comunque, ma se è vero che l’IA promette maggiore sviluppo e profitti è obbligo della politica mitigare gli effetti sociali sfruttando i maggiori introiti.
Nel campo dell’istruzione occorre una rapida rivoluzione copernicana, dove i concetti di insegnamento, esercitazione personale e verifica vanno completamente ripensati. [3]
L’intelligenza artificiale generativa come assistente educativo
Per i docenti l’IA generativa mette a disposizione potenti strumenti di generazione di materiale didattico miultimodale altamente innovativo, particolarmente adatto a creare media e ad accelerare il processo di trasformazione dalla lezione frontale, in cui il docente spiega e gli allievi ascoltano, alla lezione fatta insieme agli studenti.
Quindi prima il docente deve conoscere l’IA e i suoi strumenti, poi spiegare quali caratteristiche hanno, come utilizzarli e quali rischi vi sono nell’utilizzo e infine lavorerà con gli studenti per produrre media, riassunti, esercitazioni in modo che i ragazzi imparino a gestire criticamente l’IA in un contesto nuovo di apprendimento delle materie.
Inoltre, la potenza di questi strumenti nel generare testi, schemi e mappe concettuali permette ai docenti una elevata personalizzazione dell’insegnamento, specialmente a favore degli studenti con problematiche di apprendimento.
Avremo un docente che delegherà agli strumenti di IA la produzione di materiale e il controllo delle verifiche e perfino gli atti amministrativi e potrà concentrarsi sul suo insostituibile ruolo di insegnante umano. E studenti che non si attaccheranno allo smartphone per fargli fare il compitino, ma dialogheranno con l’IA tutor personale per verificare il loro apprendimento dei contenuti delle materie.
È un’illusione? No, una necessità.
L’IA generativa non è una scappatoia per non fare i compiti, ma invece di demonizzarla può diventare un potentissimo assistente all’istruzione.
Perché la splendida creatura? Perché è una delle più alte vette dell’ingegno umano, vi pare poco!
Note
[1] A.Vaswani e altri Attention Is All You Need
31st Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA.
[2] https://platform.openai.com
[3] Intelligenza Artificiale a scuola – I Manuali d LOGIN – Corriere della Sera











