Quando parliamo di democratizzazione di una tecnologia intendiamo uno sviluppo aperto e sostenibile che consenta ad ogni attore coinvolto di riceverne benefici, mantenendo al tempo stesso il controllo nel senso più ampio del termine[1]. Questo significa che gli utenti dovrebbero essere consapevoli dei rischi e delle opportunità ai quali lo strumento li espone, avendo pieno accesso alle informazioni che descrivono i meccanismi di funzionamento e i dati interessati.
Purtroppo, le logiche di business hanno distorto questa accezione di democratizzazione, considerando e mettendo in atto solo una parte degli aspetti enunciati, con uno sbilanciamento a vantaggio del soggetto che sviluppa e rende disponibile la tecnologia. Di seguito proviamo ad analizzare i Large Language Models (LLMs) in relazione al fenomeno di democratizzazione di questa tecnologia, secondo la visione di OpenAI, già nota e chiaramente riaffermata in occasione del recente lancio di GPT-4o.
Cos’è un Large Language Model
I Large Language Model (LLM) sono forme avanzate di intelligenza artificiale (IA), progettati per l’analisi e l’elaborazione del linguaggio naturale. Questi modelli, addestrati su enormi quantità di testo, proveniente da libri, articoli, siti web e altre fonti, sono capaci di rappresentare e generare contenuti con coerenza e contesto[2]. Gli LLM utilizzano reti neurali profonde per prevedere la parola successiva in una frase, rispondere a domande, tradurre lingue, riassumere documenti ed altre forme di strutturazione dei contenuti in risposta ad un input testuale fornito dall’utente sotto forma di “prompt” (in questo senso tale tipo di IA è comunemente detta “generativa”). Modelli di linguaggio ancora più evoluti sono in grado di interagire in modo multimodale e multimediale potendo accettare input e generare output sotto forma di immagini, audio e video.
GPT-4o: le principali innovazioni
Nel susseguirsi delle dichiarazioni rilasciate dalle varie aziende per mantenere una posizione di dominio nel mercato, poche settimane fa OpenAI ha annunciato il lancio di GPT-4o.
Le innovazioni introdotte da GPT-4o[3] rispetto ai suoi predecessori si articolano in diverse aree chiave. La prima innovazione riguarda l’interazione multimediale in tempo reale. GPT-4o offre la capacità di interagire con gli utenti tramite conversazioni audio e video, aumentando e migliorando così l’interazione uomo-macchina, rendendola più naturale ed intuitiva. Utilizzando le fotocamere ed i microfoni degli smartphone, il modello può rilevare ed interpretare alcuni biomarker audiovisivi quali le espressioni facciali degli utenti, il tono di voce, permettendo una comunicazione modulata da canali emozionali e la generazione di risposte più empatiche e contestuali.
Un altro aspetto fondamentale cui OpenAI ha lavorato è l’abbattimento della latenza delle risposte e la possibilità di un’interazione verbale che tollera interruzioni. Grazie ad un modello in grado di lavorare direttamente con contenuti multimodali, ovvero evitando ad esempio la necessità di passaggi di trascrizione dell’audio o del “captioning” delle immagini e del video, GPT-4o è in grado di fornire risultati quasi istantanei, con tempi di reazione medi di soli 320 millisecondi, migliorando significativamente l’efficienza e la fluidità delle interazioni in tempo reale rispetto ai modelli precedenti. Inoltre, GPT-4o supporta traduzioni in 50 lingue, coprendo il 97% della popolazione mondiale, favorendo così la globalizzazione dell’informazione e della comunicazione. A differenza delle versioni precedenti, GPT-4o sarà disponibile gratuitamente per tutti gli utenti registrati, abbattendo le barriere economiche all’accesso nella dichiarata direzione di consentire un importante passo in avanti verso la democratizzazione dell’IA.
Democratizzazione dell’IA: opportunità per l’innovazione
La cosiddetta democratizzazione dell’IA generativa e generalista, basata su LLM può favorire l’innovazione rendendo la tecnologia accessibile a una platea più ampia di utenti, inclusi piccoli imprenditori, sviluppatori indipendenti, istituzioni educative e singoli individui. L’accesso economico a queste tecnologie IA permette anche a piccole imprese e startup di sviluppare nuovi prodotti e servizi. Questa accessibilità promuove una maggiore competizione e diversificazione nell’innovazione tecnologica[4].
Nel campo dell’educazione, studenti e docenti possono utilizzare strumenti IA basati su LLM per migliorare l’apprendimento e la didattica. Le università possono integrare l’uso dell’IA nei loro curricula, preparando la prossima generazione di innovatori. Nella ricerca e sviluppo, i ricercatori possono impiegare strumenti IA per analizzare grandi quantità di dati, accelerare scoperte scientifiche e sviluppare nuove tecnologie.
Con l’IA generativa, le aziende sono in grado di offrire esperienze personalizzate ai loro clienti, migliorandone la soddisfazione e la fidelizzazione. Questo include consigli mirati, assistenti virtuali e servizi di supporto intelligenti. Inoltre, settori tradizionali come l’agricoltura, la sanità e la manifattura possono trarre vantaggio dall’IA per ottimizzare processi, migliorare la produttività e sviluppare nuove soluzioni innovative[5]. Democratizzare l’Intelligenza Artificiale consente dunque di incrementare le possibilità di sviluppo in molteplici settori, creando nuove opportunità per una vasta gamma di utenti.
Rischi della democratizzazione dell’IA
Pur offrendo numerose opportunità, l’impiego massivo dell’IA basata su LLM comporta però anche pericoli significativi per l’essere umano nella sua dimensione individuale e sociale: da strumento di innovazione può tramutarsi, infatti, in fonte di manipolazione e controllo[6]. Da strumento a supporto della creatività può produrre, a medio-lungo termine, modifiche regressive delle capacità cognitive.
Un aumento dei cyberattacchi è un rischio concreto in termini di sicurezza, poiché l’accesso diffuso alla tecnologia IA può rendere bersaglio di attacchi informatici persone e organizzazioni meno preparate . Gli hacker possono sfruttare vulnerabilità nei sistemi IA per sottrarre dati sensibili o causare danni. Inoltre, gli stessi strumenti IA possono essere utilizzati da malintenzionati per automatizzare e potenziare i cyberattacchi, rendendoli più difficili da rilevare e contrastare.
La diffusione su vasta scala dell’IA può comportare altresì una massiccia raccolta di dati personali, spesso senza che, al riguardo, gli utenti abbiano adeguatamente prestato il loro consenso[7]. L’IA elabora così dati anche altamente sensibili, inclusi dati biometrici ed emotivi, il cui utilizzo improprio – per profilazione o per altri scopi non trasparenti – è in grado di configurare gravi violazioni dei diritti e delle libertà fondamentali della persona.
Tecnologie IA avanzate possono diventare, infatti, strumenti per incrementare il potere di sorveglianza sugli individui in capo non soltanto ai governi, ma anche alle aziende private.
Gli attori malevoli possono utilizzare l’IA per creare deepfake, diffondere disinformazione, danneggiare la reputazione di individui e organizzazioni, fino a poter condizionare gli esiti di un’elezione politica. Gli sviluppatori di malware possono impiegare l’IA per creare programmi malevoli più sofisticati e adattivi, in grado di eludere i sistemi di sicurezza tradizionali e di causare danni su vasta scala. L’IA può essere utilizzata per automatizzare e perfezionare le truffe online, rendendole più credibili e difficili da rilevare[8].
Il potere di manipolazione della volontà e di controllo sui pensieri e sulle azioni sarà peraltro tanto più grande quanto più l’utente sarà vulnerabile: si pensi ai minori, agli anziani, ai soggetti svantaggiati ed emarginati dal punto di vista sociale, economico o culturale, alle persone che vivono nelle aree geografiche del mondo più arretrate ed isolate. In questa prospettiva, l’IA diviene un’arma per accentuare le differenze ed acuire le discriminazioni.
Questi rischi impongono una disciplina in grado di valorizzare la consapevolezza, il consenso e l’autodeterminazione degli utenti, nonché in grado di prevenire gli attentati alla sicurezza e le violazioni alla libertà, alla dignità e alla riservatezza degli esseri umani coinvolti.
Problematiche legate all’IA empatica
GPT-4o è una tecnologia progettata e sviluppata per sembrare empatica. Questa nuova caratteristica è volta ad avvicinare lo strumento tecnologico all’individuo, perché, consentendo il riconoscimento di stati d’animo e di emozioni, permette nel modo più opportuno e naturale di adattare l’interazione e di costruire la relazione con l’essere umano.
Il Regolamento europeo sull’Intelligenza Artificiale (ultima versione del 14 maggio 2024, considerando n. 18) definisce “sistema di riconoscimento delle emozioni” un sistema di IA “finalizzato a identificare o inferire emozioni o intenzioni di persone fisiche, sulla base dei loro dati biometrici”, con riferimento “a emozioni o intenzioni quali felicità, tristezza, rabbia, sorpresa, disgusto, imbarazzo, eccitazione, vergogna, disprezzo, soddisfazione e divertimento”. Sono invece espressamente esclusi da questa definizione gli stati fisici, quali il dolore o l’affaticamento, e, di conseguenza, i sistemi utilizzati per rilevare lo stato di affaticamento dei piloti o dei conducenti professionisti al fine di prevenire gli incidenti.
Il riconoscimento delle emozioni avviene tramite la raccolta di dati biometrici, ovvero delle “caratteristiche fisiche, fisiologiche e comportamentali di una persona, quali il volto, il movimento degli occhi, la forma del corpo, la voce, la prosodia, l’andatura, la postura, la frequenza cardiaca, la pressione sanguigna, l’odore, la pressione esercitata sui tasti” (considerando n. 15).
L’impiego di sistemi di riconoscimento delle emozioni non è però esente da zone d’ombra e da profili anche altamente critici. L’accuratezza del riconoscimento delle emozioni è il primo aspetto. Gli algoritmi di IA, infatti, possono interpretare erroneamente i segnali non verbali, quali il linguaggio del corpo, i gesti, le espressioni del viso e il tono della voce, elaborando risposte inappropriate o fuorvianti. Le modalità di manifestazione delle emozioni umane sono complesse e suscettibili di essere influenzate da fattori personali, culturali e sociali, che l’IA potrebbe non cogliere in maniera adeguata.
In altre parole, si pretende dall’IA una capacità di comprensione e di interpretazione in un ambito – quello dei sentimenti e delle emozioni – che gli esseri umani stessi faticano a decifrare e a codificare in senso oggettivo e univoco. Si pensi ai tanti significati di un sorriso, che può parimenti manifestare gioia, amarezza, tristezza, convenzione sociale.
Lo stesso legislatore europeo (AI Act, considerando n. 44) esprime preoccupazione in ordine alla scientificità di tali sistemi, ritenuti poco affidabili, non specifici, difficilmente generalizzabili, anche in relazione ad un’unica e medesima persona, con risultati, dunque, potenzialmente discriminatori e pregiudizievoli.
Sul fronte etico, l’uso di IA empatica desta peraltro preoccupazioni significative. L’IA che monitora continuamente le emozioni degli utenti può essere percepita come invasiva, evocando una sensazione di sorveglianza costante. Un controllo in questi termini appare particolarmente problematico in contesti sensibili come quello sanitario o educativo, dove essenziale è il rispetto della dignità, dell’autonomia e della riservatezza dei soggetti coinvolti. Inoltre, raccogliere e analizzare dati contenenti risposte emotive comporta seri rischi. Si tratta, infatti, di dati altamente sensibili, che possono essere utilizzati per manipolare o influenzare gli utenti. Ad esempio, le aziende potrebbero utilizzare queste informazioni per adattare le pubblicità in modo sì strettamente personalizzato, ma anche potenzialmente invasivo.
E’ dunque opportuno che gli utenti ricevano una notifica quando sono esposti a sistemi di IA che, nel trattamento dei loro dati biometrici, siano in grado di identificare o inferire le loro emozioni o intenzioni, assegnando tali soggetti a categorie specifiche, che possono riguardare anche le loro preferenze o interessi personali (in questo senso anche il considerando n. 132 dell’AI Act).
L’eventuale uso improprio dell’IA empatica rappresenta un altro problema cruciale. Attori malevoli potrebbero sfruttare le capacità di riconoscimento delle emozioni per manipolare le persone, diffondere disinformazione o creare contenuti dannosi.
I paletti dell’AI Act
A fronti di tali rischi, il legislatore europeo (art. 5, lett. f), AI Act) ha inserito tra le pratiche vietate “l’immissione sul mercato, la messa in servizio per tale finalità specifica o l’uso di sistemi di IA per inferire le emozioni di una persona fisica nell’ambito del luogo di lavoro e degli istituti di istruzione, tranne laddove l’uso del sistema di IA sia destinato a essere messo in funzione o immesso sul mercato per motivi medici o di sicurezza”. Le motivazioni a tale divieto attengono proprio alla natura invasiva di questi sistemi rispetto ai diritti e alle libertà delle persone interessate, nonché ai risultati discriminatori cui questi possono addivenire, in particolar modo nell’ambito di contesti connotati da uno “squilibrio di potere” come quello lavorativo e dell’istruzione (considerando n. 44).
Riguardo a tutti gli altri settori di utilizzo, i sistemi di IA destinati ad essere impiegati per il riconoscimento delle emozioni sono inseriti fra quelli ad alto rischio (Allegato III, lett. c), AI Act), a meno che non si dimostri l’assenza di “un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale” (art. 6, comma 3, AI Act).
A fronte di tali articolate indicazioni normative e una volta trascorsi i ventiquattro mesi previsti ai fini della piena applicabilità dell’AI Act, sarà interessante osservare, dunque, come sistemi intelligenti alla stregua di GPT-4o possano legittimamente inserirsi nel mercato, in quali ambiti e a quali condizioni.
L’approccio multifattoriale per un uso etico e responsabile dell’IA
Bilanciare l’innovazione e la regolamentazione per garantire un uso etico e responsabile dell’IA richiede un approccio multifattoriale che coinvolga vari stakeholder, tra cui governi, aziende, sviluppatori e la stessa società civile. Una regolamentazione proattiva è essenziale. I governi e gli organismi internazionali devono sviluppare linee guida chiare per l’uso etico dell’IA, disciplinando aspetti come la privacy dei dati, la trasparenza degli algoritmi e l’individuazione dei soggetti giuridicamente responsabili allorché un danno si produca. Settori particolarmente sensibili, come la sanità, la finanza e la sicurezza pubblica, possono richiedere una regolamentazione specifica.
Le aziende stesse devono adottare codici di condotta che includano principi etici per lo sviluppo e per l’impiego dell’IA. Costituire Comitati etici all’interno delle organizzazioni può aiutare a valutare l’impatto sociale delle tecnologie IA e a guidare le decisioni strategiche.
L’approvazione dell’AI Act ha consentito di riflettere sul ruolo regolatorio del diritto, necessario e funzionale ad una uniforme protezione dei soggetti coinvolti e dei beni giuridici a rischio, ma anche in grado, allo stesso tempo, di condizionare e di limitare i tempi e i modi dell’innovazione. In Italia, lo scorso 23 aprile 2024 il Consiglio dei Ministri ha approvato il disegno di legge n. 1066AS, dal titolo “Norme per lo sviluppo e l’adozione di tecnologie di intelligenza artificiale”, che adesso dovrà superare il vaglio del Parlamento.
Prima del lancio di nuovi sistemi IA, è importante condurre valutazioni di impatto etico e sociale per identificare e mitigare potenziali rischi. Implementare processi di monitoraggio continuo permette di rilevare e correggere eventuali usi non etici o dannosi dell’IA. La collaborazione tra pubblico e privato è fondamentale. Creare partnership tra governi, aziende private, università e organizzazioni non profit può facilitare lo sviluppo e l’ideazione di regolamenti e pratiche migliori. Promuovere la condivisione delle conoscenze e delle migliori pratiche tra diversi soggetti può accelerare l’adozione di standard etici e responsabili.
L’urgenza di bilanciare diffusione dell’innovazione e regolamentazione dell’IA
Educare e sensibilizzare il pubblico sui rischi e sulle opportunità dell’IA favorisce un uso più consapevole e responsabile della tecnologia. Le istituzioni educative, i media e le organizzazioni della società civile possono giocare un ruolo cruciale in questo processo. Inoltre, è importante stabilire meccanismi per responsabilizzare chi sviluppa e utilizza l’IA. Chi causa danni attraverso l’uso negligente o malevolo dell’IA deve essere ritenuto responsabile e gli utenti devono poter accedere a rimedi efficaci in caso di violazioni.
Alla luce di tutto ciò, la mera enunciazione unidirezionale di principi di democratizzazione per accompagnare e giustificare il lancio di un prodotto in grado di modificare e influire significativamente sulle vite di ciascun essere umano, sull’ambiente e sul corso della storia, appare monco di una appropriata e approfondita riflessione sugli effetti a breve, ma soprattutto a medio-lungo termine, legati alla diffusione massiva delle più avanzate forme di IA generativa. Da apprezzare gli sforzi delle aziende proponenti, anche se unilaterali e per ora senza concrete garanzie di successo, a far sì che la generazione di contenuti soddisfi alcuni parametri di “sicurezza”. Tali sforzi sono tuttavia da considerarsi parziali e insufficienti, nel momento in cui essi non siano mediati ed in alcuni casi controllati dall’azione regolamentare, dalla riflessione etica e culturale, dalla tutela attiva rispetto alle dimensioni di vulnerabilità e di possibile danno cognitivo (es. fenomeni di dipendenza tecnologica e/o di impoverimento di alcune abilità cognitive per eccessiva delega all’IA), a partire dalle fasce della popolazione mondiale più esposte all’azione possibilmente dannosa di sistemi di IA generativa qualora resa disponibile ed utilizzata in modo improprio. In uno scenario, non augurabile, in cui i cittadini siano più fragili e più manipolabili per diretto “effetto collaterale” di una imponderata “democratizzazione” dell’IA, sarebbe troppo tardi per rendersi conto dei danni arrecati al concetto stesso di democrazia e alla possibilità di promuoverla e di viverla in modo pieno.
Pertanto, bilanciare la diffusione dell’innovazione e la regolamentazione dell’IA è particolarmente urgente e richiede un impegno attivo, concertato e continuo da parte di tutti i soggetti coinvolti, con l’obiettivo di promuovere un uso dell’IA che sia sicuro, equo e rispettoso dei diritti umani.
Note
[1] https://www.agendadigitale.eu/cultura-digitale/intelligenza-artificiale-democratica-cosi-il-graph-embedding-apre-uno-spiraglio/
[2] https://openai.com/index/better-language-models/ –
[3] https://openai.com/index/hello-gpt-4o/
[4] https://osservatoriocpi.unicatt.it/ocpi-pubblicazioni-intelligenza-artificiale-produttivita-e-il-futuro-del-lavoro
[5] https://osservatoriocpi.unicatt.it/ocpi-pubblicazioni-intelligenza-artificiale-cosa-fa-davvero
[6] https://withpersona.com/blog/llm-fraud
[7] https://noyb.eu/en/how-mobile-apps-illegally-share-your-personal-data
[8] Ferrara, E. (2024). GenAI against humanity: Nefarious applications of generative artificial intelligence and large language models. Journal of Computational Social Science, 1-21.