Una serie di tweet contenente consigli su come diventare più produttivi, pubblicata da un utente ma generata da un’IA, ha ricevuto più interazioni in termini di cuoricini e retweet rispetto ai precedenti post dello stesso utente.
L’IA stimola la creatività: ecco perché è una freccia in più nella faretra dell’arte umana
I social e il web si sta riempiendo di immagini bellissime e – forse – artistiche generate da Dall-E o da poesie scritte da ChatGpt di OpenAi.
Siamo assistendo alla prima grande popolarità degli strumenti di AI – o forse alla seconda fase di popolarità, se consideriamo quella degli assistenti vocali. La società corre avanti, si abitua all’AI, ma lascia alle spalle quesiti irrisolti sulle ricadute etiche.
Riconoscere l’impronta umana
A maggior ragione se contenuti generati da un’Intelligenza artificiale (AI) potrebbero essere in grado di catturare più attenzione da parte del pubblico rispetto a contenuti simili generati da un individuo.
Senza un marchio che ne indichi esplicitamente la provenienza, si riesce a distinguere un testo scritto da un’AI da un altro scritto da un essere umano? E soprattutto: importa la provenienza umana? Se una lista di consigli sulla produttività è utile, il fatto che l’abbia generata un’AI la rende forse meno utile? Meno autentica?
Se, grazie a questa lista, l’utente che l’ha pubblicata ha guadagnato in termini di visibilità su Twitter, incrementando il numero di profili che lo seguono ed accrescendo così il suo network, il suo successo è meritato o è stato ottenuto barando? I tweet generati dall’AI sono da considerarsi un inganno o un’intuizione geniale dell’utente che ha interrogato l’AI ponendo la giusta domanda?
Se interagendo con qualcuno, solo dopo qualche tempo, si scoprisse che quel qualcuno è in realtà un bot, un algoritmo, un’AI, quale sarebbe il sentimento prevalente? Tradimento? Delusione? E quale sarebbe il motivo profondo di una reazione?
Il contesto scolastico
Scrivere con l’aiuto di un’AI è una frode, una cosa immorale e quindi da evitare? Oppure l’AI è semplicemente uno strumento, potente e rivoluzionario sì, ma pur sempre uno strumento? Se lo usano, dovremmo imporre ai nostri studenti l’obbligo di citare chatGPT, (la frontiera dell’AI per quanto riguarda il dialogo con un bot e la creazione di testo)? E se non imponiamo l’obbligo di citazione agli studenti, come possiamo stabilire se le risposte a domande aperte sono farina del loro sacco o del sacco di OpenAI, l’azienda che ha creato chatGPT?
Cosa ancora più importante: scrivere ci aiuta a mettere in ordine i pensieri, a rendere chiari dei concetti che magari pensiamo di aver assimilato ma che spesso sono in realtà molto confusi nella nostra mente. Se gli studenti delegano la stesura dei loro scritti ad un’AI, come possiamo aiutarli a chiarirsi le idee e a verificare che abbiano davvero capito un concetto o appreso una nozione?
E ancora: per costruire un’IA che sia in grado di generare contenuti creativi è necessario fornire inizialmente una vasta quantità di dati che siano di esempio alla macchina, cioè un training dataset, o dati di addestramento che la macchina necessita per imparare a generare nuovi contenuti.
Gli studenti “barano” con l’intelligenza artificiale, le nuove sfide per i prof
Il diritto d’autore
Il training dataset contiene le creazioni di migliaia di autori, esseri umani che hanno reso il proprio lavoro accessibile al pubblico ma non per questo rinunciando ai diritti su di esso. A queste persone non è mai stato chiesto se acconsentissero o meno all’utilizzo delle loro creazioni per addestrare un’AI che, chissà, un giorno potrebbe rimpiazzarli? Come ripagarli per il servizio inestimabile che hanno prestato alla scienza e alla società in generale? Molti non sono neanche più tra noi.
Chi ha addestrato un’AI con le loro opere non ha violato i loro diritti d’autore? Iniziative come Have I Been Trained, un servizio con cui gli artisti possono cercare i link alle proprie opere e segnalarli per la rimozione, sono una risposta limitata ed autoregolamentata a questi problemi, e le richieste degli artisti di togliere le proprie opere dai training dataset potrebbero non essere accolte.
I contenuti falsi
Altro problema. L’AI è ormai in grado di generare contenuti di qualsiasi tipo: testo, foto, video, immagini di dipinti, musica, software e riesce a farlo nel giro di secondi. Alcuni sono palesemente satirici, divertenti, utili, altri strani, inaspettati. Ma, soprattutto negli ultimi anni, abbiamo assistito a diverse problematiche relative alla diffusione online di contenuti falsi o contraffatti e ci siamo interrogati su come prevenirne la viralità in casi che destabilizzano la società, come succede con le teorie cospiratorie o con le incitazioni alla violenza.
Visto che Internet si riempirà di contenuti generati da un’IA, come potremo tracciare la diffusione di una notizia o un video falsi, tendenziosi, pericolosi? E ci sarà modo di attribuire responsabilità quando, ripetiamo, l’AI non ha neanche diritti d’autore?
La difficoltà di attuare controlli
Le reti generative avversarie, o GAN (Generative Adversarial Networks), sono in grado di creare immagini iperrealistiche di persone inesistenti su larga scala; chiunque può provare a divertirsi visitando il sito This Person Does Not Exist Generated Photos, una delle aziende che ha sviluppato questa tecnologia e che finora ha prodotto più di 2 milioni e mezzo di foto. Viene specificato nelle sue condizioni di utilizzo del servizio che è proibita ogni tipo di attività illegale, come la diffamazione, il furto d’identità o la frode ma come accertarsi che queste regole, tra l’altro interpretabili, vengano effettivamente rispettate?
Diverse aziende stanno utilizzando i GAN per creare finti impiegati, in modo da far credere di avere più personale e sperando così di riuscire ad attirare più talenti. Si tratta di frode? Ci interessa ancora sapere chi o cosa c’è dietro una foto? O forse non ci è mai davvero interessato?
La discriminazione
E che dire del modello di machine learning utilizzato dai GAN? In genere tende a corrispondere a degli standard di estetica convenzionali, cioè quelli rappresentati nel training dataset che ha ricevuto. Ciò potrebbe creare problematiche di rappresentanza e discriminazione verso standard di bellezza non tradizionali. Vogliamo poi parlare dell’IA che prevede dove accadrà un crimine con alta probabilità? O del drone armato che riconosce autonomamente attività ostili?
Sono tante le domande che l’intelligenza artificiale ci pone. Questa tecnologia di recente sta facendo passi da gigante in pochissimo tempo, ogni settimana un nuovo strumento, sviluppi impensabili anche solo un paio di anni fa, creando opportunità uniche ma allo stesso tempo mettendoci di fronte a quesiti di natura legale ed etica che sono altrettanto nuovi e su cui varrebbe la pena riflettere attentamente prima di lanciare prodotti tanto rivoluzionari sul mercato.
Predire le crisi sanitarie con il machine learning: lo studio NYU
Le ricadute delle AI sull’impiego
Alcune guardano alle conseguenze sull’occupazione, focalizzandosi sul pericolo corso da chi si vede risorsa facilmente rimpiazzabile. Preoccuparsi di cosa succederà a tutto il campo della diagnostica per immagini, ad esempio, in cui l’AI raggiunge già oggi livelli di accuratezza superiori a quella umana, è assolutamente legittimo, ma questo tipo di rischi l’abbiamo già affrontato in passato ed abbiamo dimostrato che, a quei rischi, l’uomo sa rispondere molto bene.
Quando ormai 26 anni fa, il maestro di scacchi Garry Kasparov fu sconfitto da un’IA e subì uno smacco, ma uno smacco che portò a fare delle profonde riflessioni sulla collaborazione tra uomo e macchina, culminate nel suo libro, pubblicato nel 2017, dal titolo Deep Thinking: Where Machine Intelligence Ends and Human Creativity Begins. In questo libro, partendo dalla constatazione di come la collaborazione tra giocatore ed IA abbia migliorato considerevolmente le strategie di gioco degli scacchi, va ben oltre il gioco strategico e dimostra come uomo + macchina sia un connubio dal potenziale incredibile che diventerà presto la norma ovunque, ed utilizza un paragone, magari forte ma efficace, dicendo che temere la perdita di posti di lavoro a causa della tecnologia è un po’ come lamentarsi del fatto che gli antibiotici abbiano tolto tanto lavoro ai becchini.
Davenport e Miller nel loro nuovo libro: Working with AI: Real Stories of Human-Machine Collaboration, descrivono tanti casi aziendali in cui questo connubio non solo ha reso lo svolgimento di alcuni compiti più efficiente ma, cosa più interessante, ha liberato risorse umane per attività più produttive e più soddisfacenti per l’individuo.
Criteri di giudizio e aspettative
Il punto che vorremmo sollevare quindi, non è tanto la sostituzione della macchina all’uomo, quanto il necessario cambiamento degli standard e delle aspettative della società, che si sono formati nei millenni in cui un’AI così avanzata non era disponibile.
L’introduzione di macchine finora non ha imposto una tale rivisitazione, perché i criteri di giudizio erano ben definiti: l’automobile e l’aereo sono più veloci della bicicletta o del cavallo (inquinano, quindi creano altri problemi, ma la velocità non si discute). Il computer ha una rapidità computazionale non paragonabile al cervello umano e la calcolatrice garantisce un risultato esatto. Un macchinario all’interno di una fabbrica ha una potenza e, oggi, anche una precisione di ordini di grandezza superiori rispetto a quelle umane.
Se l’AI diventa artista: rischi e vantaggi degli algoritmi text-to-image e text-to-video
Quando i criteri di giudizio sono oggettivi, l’aggiustamento è immediato. Ma come valutare la qualità dell’arte creativa ora che c’è l’AI? Un quadro generato da DALL-E riesce a trasmetterci le stesse emozioni di un Dalì? Ed ha senso che venga messo all’asta per cifre paragonabili?
E i ricavi dell’asta come vanno distribuiti? Una poesia generata da chatGPT è degna di essere studiata a scuola? Tramandata di generazione in generazione? Il prossimo colloquio che uno sviluppatore farà da Microsoft o Amazon consisterà nel saper utilizzare lightning.ai per costruire un’app a tempo di record o Codex per correggere degli errori di sintassi informatica?
L’aggiustamento delle aspettative sociali richiede tempo, riflessione, valutazione del rapporto rischi-benefici e non c’è certezza rispetto a quanto sia saggio mettere a disposizione strumenti tanto potenti, senza avere prima ragionato a fondo sugli stravolgimenti che comportano nella società.