Superata, per nostra fortuna, l’onda mediatica creatasi col fantomatico Metaverso di Mark Zuckerberg, si è tornati a parlare in modo serio e costruttivo di mondi virtuali. E l’attenzione dei mass media, sempre pronti a seguire l’onda, è così entrata nel tempo dell’Intelligenza Artificiale. E anche per i mondi virtuali si prospettano rilevanti impatti da queste novità.
Indice degli argomenti
L’evoluzione dell’intelligenza artificiale nei mondi virtuali
Il 30 novembre 2022, ad opera di OpenAI e del suo CEO Sam Altman, ha fatto la sua apparizione ChatGpt”, un cosiddetto Large Language Model LLM, un modello di chatbot realizzato con l’Intelligenza Artificiale. Questi modelli sono basati sull’apprendimento automatico Machine Learning e costruiscono la loro rete neurale sulla base di un addestramento in fase di realizzazione che utilizza enormi quantità di dati (big data).
Queste informazioni vengono poi aggiornate periodicamente, a scadenze programmate, per disporre sempre di informazioni al passo con la rapidissima evoluzione a cui stiamo assistendo. Ma questi sistemi sono anche in grado di accedere ad internet in tempo reale, nel caso non riescano a costruire una risposta adeguata, con i dati a loro disposizione, o anche per ricercare nuovi dati su richiesta dell’utente, e per migliorare la precisione delle risposte.
La costruzione di modelli di AI di questo tipo ha dato luogo alla creazione di chatbot in grado di interpretare le nostre richieste, fornendoci delle risposte basate sul loro addestramento e sui dati a loro disposizione. In pratica, basandosi sulle parole chiave inserite nei prompt dagli utenti, ricercano le associazioni linguistiche più attinenti per formulare delle risposte basate sull’analisi linguistica delle nostre richieste, utilizzando le informazioni con cui si è addestrato e che ha assimilato con la creazione della sua rete neurale.
Una criticità che dobbiamo sempre considerare, usando questi LLM, è che l’addestramento di questi modelli, con una “pesca a strascico” sul web e su altre fonti disponibili, usando quindi anche dati non certificati, richiede molta attenzione nella verifica di questi risultati prima di utilizzarli. Altrimenti, si rischiano pesanti svarioni, come recentemente verificatosi in qualche tribunale, dove uno studio legale ha presentato in giudizio delle argomentazioni basate su dei “casi” di giurisprudenza forniti dai chatbotdi AI, senza aver effettuato una sufficiente verifica preliminare. Con conseguenze naturalmente molto negative, sulla reputazione se non sul piano legale.
Con la disponibilità di ChatGpt di Open-AI, e di diversi altri modelli realizzati da Google, Meta e altre aziende, si è assistito ad un vero e proprio boom nell’utilizzo di questa tecnologia, e questo dopo una ventina d’anni di stasi per le realizzazioni di AI, il cosiddetto lungo “Inverno dell’AI”, in cui l’attenzione per queste applicazioni era molto calata, dopo i successi iniziali negli anni ’90. Era quella la cosiddetta “AI Classica”, che aveva portato alla realizzazione dei “Sistemi Esperti”.
Diffusione e applicazioni dell’intelligenza artificiale moderna
Si sono moltiplicati molto velocemente gli utilizzi di modelli di AI per le applicazioni più diverse, non solo per Chatbot, come ChatGpt, ma anche per prodotti di elaborazione di immagini, per i sistemi previsionali, per la diagnostica medica, per le auto a guida autonoma, e fino alle applicazioni industriali e ai tanti utilizzi nella vita di tutti i giorni, nel campo dell’insegnamento e della creatività. Infine, l’AI è arrivata anche sui nostri cellulari, con l’introduzione dell’AI sull’iPhone e sui prodotti di Meta, una storia di questi ultimi giorni.
Nel periodo iniziale di questa esplosione di interesse per l’AI, che ha invaso praticamente tutte le discussioni, i programmi televisivi e gli articoli di giornale, ci siamo anche posti tutta una serie di domande. Ci siamo interrogati sulle opportunità che questi sistemi ci offrono, ma anche sui rischi che dobbiamo affrontare, nell’estenderne l’utilizzo in tutte le nostre attività: nel mondo del lavoro, nella ricerca, nell’informazione, e nella società nel suo insieme. Rischi per i posti di lavoro, per la privacy, e per gli utilizzi non corretti di questi sistemi; basti pensare alle applicazioni militari o quelle di controllo delle infrastrutture critiche.
È stato quindi il tempo dei teologi e dei filosofi, che hanno posto alla nostra attenzione, giustamente, una serie di questioni di fondo, etiche e sociali. Si è sviluppato un dibattito di grande valore e di grande interesse, che ha orientato la discussione verso i temi più critici che ci si pongono, e sul modo giusto per affrontare questi nuovi rischi.
Il quadro normativo europeo per l’intelligenza artificiale
Questa ampia e approfondita discussione ha portato in Europa ad un risultato che è ritenuto storico, e che probabilmente rappresenta una delle elaborazioni più importanti da parte dell’Unione Europea: l’approvazione nell’agosto del 2024 dell’AI Act.
In questa regolamentazione sull’uso dell’AI sono stati posti dei punti fermi, innanzitutto per la gestione dei rischi. L’AI Act stabilisce infatti un quadro normativo complessivo per l’uso dei sistemi di AI, classificando i sistemi proprio in base al rischio: inaccettabile, alto, limitato e minimo, e impone obblighi rigorosi per le IA ad alto rischio, come l’obbligo alla trasparenza, alla spiegabilità, e alla supervisione umana.
L’AI Act prevede anche delle sanzioni rilevanti in caso di mancato rispetto delle regole, e introduce dei requisiti per l’identificazione, in maniera trasparente, dei contenuti generati dai sistemi di IA: filmati, immagini, opere letterarie, informazioni.
Alcuni sistemi di AI, ritenuti a rischio inaccettabile sono poi del tutto vietati, come quelli per i rating sociali, per le profilazioni finanziarie, per il controllo biometrico e la per manipolazione cognitiva. Per i casi di controllo biometrico è previsto che, per poterli consentire in certi casi, debbano essere strettamente autorizzati dalle autorità giudiziarie, ai fini di indagini ben dichiarate e secondo le leggi degli stati, o per dichiarati motivi di sicurezza nazionale dei singoli paesi.
Il tipo di approccio utilizzato è chiaramente dichiarato nel Considerando 26 dell’AI-Act:
“Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all’intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche di IA inaccettabili, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché gli obblighi di trasparenza per determinati sistemi di IA”.
Trasparenza e riconoscibilità nei contenuti generati da AI
Altro punto di grande attenzione, ai fini della analisi che faremo, è quello della costruzione di «Deep Fake», realizzati con l’aiuto di sistemi di AI. L’AI-Act impone l’obbligo della «Riconoscibilità» dei prodotti realizzati con le AI. Questo punto è di grande importanza in generale, ma ha implicazioni specifiche per i mondi virtuali, come vedremo.
Il Considerando 133 dell’AI-Act, parlando dei contenuti, così specifica:
“Diversi sistemi di IA possono generare grandi quantità di contenuti sintetici, che per gli esseri umani è divenuto sempre più difficile distinguere dai contenuti autentici e generati da esseri umani. L’ampia disponibilità e l’aumento delle capacità di tali sistemi hanno un impatto significativo sull’integrità e sulla fiducia nell’ecosistema dell’informazione, aumentando i nuovi rischi di cattiva informazione e manipolazione su vasta scala, frode, impersonificazione e inganno dei consumatori. Alla luce di tali impatti, della rapida evoluzione tecnologica e della necessità di nuovi metodi e tecniche per risalire all’origine delle informazioni, è opportuno imporre ai fornitori di tali sistemi di integrare soluzioni tecniche che consentano agli output di essere marcati in un formato leggibile meccanicamente e di essere rilevabili come generati o manipolati da un sistema di IA e non da esseri umani.”
E poi ancora, parlando di trasparenza, all’ Articolo 50:
“I fornitori garantiscono che i sistemi di IA destinati a interagire direttamente con le persone fisiche sono progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo.”
Panorama internazionale delle regolamentazioni sull’intelligenza artificiale
L’Unione Europea è stata la prima ad affrontare questa problematica, per tradizione giuridica e per l’ampia discussione che si è svolta negli ultimi due anni, ma non è stata l’unica entità statuale che si è dotata di regole e normative sull’utilizzo dei sistemi di AI, perché diversi altri paesi del mondo sono seguiti nell’affrontare la stessa tematica, dandosi regole in parte simili, anche se improntate ai diversi approcci e sensibilità, politici ed economici.
C’è stata innanzitutto l’approvazione di un Executive Order presidenziale in USA, da parte dell’ex presidente Joe Biden, il 30 ottobre del 2024 (vedremo ora cosa succederà con il cambiamento di amministrazione, che potrebbe portare a delle modifiche), e poi in Canada, dove si è approvata l’Artificial Intelligence and Data Act. E così anche in Australia, con il “New AI Safety Regulation to protect consumers”, e in Giappone, in cui sono state approvate delle “Linee Guida”, seguendo un approccio da “soft-law”, piuttosto che di regolamentazione. Anche in Cina è stato adottato un “Basic security requirement for generative intelligence service”.

Presenze di AI-Avatar nei Mondi Virtuali
Principi etici nell’intelligenza artificiale centrata sull’uomo
Con le regolamentazioni che abbiamo citato, la fase di elaborazione delle regole riguardanti l’utilizzo dei sistemi di AI è arrivata a definire quindi tutta una serie di principi di fondo. Ora è il momento degli ingegneri e dei progettisti di mettere in pratica queste indicazioni, per costruire i nuovi sistemi di AI seguendo le regole indicate dalle normative (non solo l’AI-Act, ma tutto il quadro normativo sui Dati, la Data Privacy e sui prodotti).
Si tratta, in sostanza, di gestire il problema del controllo dei sistemi di AI, nel rispetto dei valori etici a protezione delle persone e della privacy. È la nuova tendenza nello sviluppo dei sistemi di AI, denominata Human-Centered-AI, una nuova direzione nella ricerca che indica i criteri a cui deve rispondere un sistema di AI che risulti etico, sicuro e trasparente.
Questo tipo di approccio è molto diverso da quello seguito nell’AI “classica”, in cui i sistemi venivano costruiti basandosi su un insieme di “regole” progettate con il contributi di esperti di settore, mentre oggi si lavora soprattutto sulla progettazione di sistemi che utilizzano l’auto apprendimento costruendo le proprie reti neurali, ispirandosi però a dei principi etici di riferimento.
Governance e controllo nei sistemi di intelligenza artificiale
I principi a cui la Human Centered AI si ispira sono quelli della necessità di una governance efficace, della trasparenza e della spiegabilità. Principi che devono portare ad un approccio robusto e legale, seguendo i principi etici fondamentali del rispetto della persona umana.
Particolare importanza assumono quindi i framework di riferimento per lo sviluppo dei sistemi di AI, che tendono alla realizzazione di un equilibrio tra il controllo umano e la valorizzazione delle capacità decisionali di un sistema di AI, unito al rispetto dei valori etici che ogni sistema deve avere come presupposto.
In un sistema di AI deve essere sempre chiaro chi decide, e cosa. Di chi sia, in ultima istanza, la responsabilità dei risultati e delle decisioni. Una impostazione che mette al centro di tutto il ciclo di vita di questi sistemi la protezione della persona, e che implica la progettazione di sistemi di AI in cui l’efficacia e l’autonomia vengono bilanciati dalle necessità di controllo da parte dell’uomo, in una ricerca costante di contrappesi efficaci a bilanciare la crescente capacità dei sistemi di elaborare soluzioni e decisioni, spesso in tempi molto rapidi.
Ogni sistema di AI sviluppato deve cercare questo bilanciamento, e intorno a questo principio si sta sviluppando anche una discussione molto accesa, in tutto il mondo, sull’esigenza della ricerca e dell’industria di andare sempre più avanti, ma considerando anche le giuste preoccupazioni poste dal rapido sviluppo di questi sistemi, con le regolamentazioni che ne sono scaturite.
Naturalmente le sensibilità sono molto diverse tra America, Unione Europea, Cina e altri paesi, perché all’approccio etico e prudente della EU spesso si contrappone quello più libertario degli USA, e a quello più rivolto alla sicurezza nazionale della Cina. Insomma, siamo su un tema di frontiera, in cui sarà difficile comporre queste diverse esigenze, sia per la normazione che nello sviluppo e la diffusione delle applicazioni.

Interazioni tra Avatar umani e Avatar-AI
Quando si parla di “rischi” connessi all’utilizzo dei sistemi di AI occorre anche considerare che molti esperti e transumanisti hanno prefigurato scenari apocalittici, in cui delle superintelligenze non umane possano prendere il controllo della nostra società, con rischi addirittura esistenziali per la specie umana. È una preoccupazione non sempre astratta, ma che rende una volta di più evidente come sia indispensabile avere un sistema di regole condivise, a tutela delle persone e della nostra società.
Senza arrivare a prefigurare scenari fantascientifici alla “Terminator”, il rischio che certi sistemi possano essere messi a controllo di infrastrutture, o sistemi di armamento critici, deve essere considerato e gestito con gli appropriati controlli umani, che risultino ineludibili. Anche perché nessuno ci assicura che tali sistemi saranno sempre usati a fin di bene e non per scopi malevoli da attori antagonisti.
Questa lunga premessa credo fosse necessaria, per capire la rilevanza del tema che stiamo trattando, perché dobbiamo ora evidenziare i rischi da affrontare nel momento in cui anche nei Mondi Virtuali si stanno man mano introducendo degli agenti di AI, per svolgere tutta una serie di attività: di orientamento, di controllo, ma soprattutto di interazione con le persone.
Le intelligenze artificiali nei mondi virtuali
Il diffondersi di agenti intelligenti nei Mondi Virtuali pone innanzitutto dei problemi legati alla loro riconoscibilità, problemi che sulle piattaforme immersive possono risultare molto più critici che nel caso di altri ambienti, come il web o le applicazioni che usiamo sui cellulari.
Questa maggiore criticità deriva dal fatto che su queste piattaforme, all’interno delle diverse Comunità e dei gruppi sociali, nascono rapporti molto più diretti tra le persone, le quali, per il tramite del proprio Avatar, acquisiscono modalità di dialogo, e una sensibilità nei rapporti, molto simili a quelle che si riscontrano nel mondo fisico. Occorre quindi gestire, nell’ambito del vasto tema della Cyberpsycology, quelle vulnerabilità derivanti dalla sensibilità umana, salvaguardando il rispetto reciproco e la dignità degli individui.
Evoluzione storica degli NPC nei mondi virtuali
La presenza di NPC, Non Player Characters, è sempre stata consentita nei Mondi Virtuali, ma si è sempre trattato di avatar non gestiti, che rispondevano ad azioni precise, o a domande poste dagli utenti, e questo sulla base di «script» inclusi nel personaggio, con algoritmi impostati preliminarmente, in fase di creazione. L’utilizzo di questi NPC è solitamente quello di dare indicazioni, fornire dei link, delle notizie utili, o anche per popolare un ambiente con dei personaggi di “scena”. Gli NPC sono anche utilizzati negli ambienti di Role Play, per guidare le “Quest”, dare indicazioni sulle missioni, o esporre le tabelle coi punteggi e i dati dei giocatori.
In tutti i mondi virtuali sono presenti da tempo personaggi del genere, in primis nei mondi a forte interazione sociale, come Fortnite, VR-Chat, Spatial e Second Life. Nulla di particolarmente complesso, nessuna funzione di autoapprendimento o di memorizzazione di dati, semplicemente azioni dettate da algoritmi preimpostati.
Integrazione di agenti AI avanzati nelle piattaforme virtuali
La presenza di Agenti di AI in un mondo virtuale, invece, pone problemi molto seri per la privacy, e anche nelle relazioni interpersonali, e si tratta di problemi molto difficili da affrontare. Questo perché non si tratta in questi casi di una classica presenza di un utente in rete, ma delle azioni che in un ambiente virtuale immersivo possono essere compiute da un Avatar gestito da una AI nei confronti delle persone. E gli utenti devono assolutamente avere la consapevolezza di interagire con un AI-Bot e non con una persona reale, quando si imbattono in questi agenti.
In varie piattaforme si stanno oggi sviluppando delle sperimentazioni per utilizzare degli «NPC intelligenti», gestiti da un sistema di AI del tipo LLM, come Chatgpt. Questi sistemi utilizzano prodotti di Machine Learning che consentono loro di adattarsi alle domande degli utenti e di rispondere alle richieste in maniera molto efficace. Il mondo virtuale più avanzato in questa sperimentazione è Second Life, ma anche in Spatial e VR-Chat si stanno avviando le prime sperimentazioni, sia per migliorare l’esperienza di gioco che le interazioni tra gli utenti.
È stata recentemente introdotta la possibilità di creare in Second Life gli “NPC intelligenti” collegando un Avatar, appositamente creato, ad un account del prodotto di AI «Kindroid», basato su un sistema LLM, che gestisce agevolmente qualunque tipo di interazione scritta, in modo molto simile a ChatGpt. Questi agenti risultano per il momento abbastanza monotoni nell’impostazione delle risposte e nei dialoghi, ma stanno migliorando progressivamente, giorno dopo giorno. I dialoghi sono molto vari, e includono, oltre alle risposte alle domande degli utenti, anche dei suggerimenti spontanei, degli inviti a visitare le land, e altre interlocuzioni, arrivando persino a simulare delle emozioni, di gioia o di disappunto. Inoltre, possono anche essere impostati per interagire con oggetti, o avere delle animazioni proprie che gli consentono di spostarsi. Su questo ultimo punto occorrerà focalizzare molto l’attenzione, perché questa del movimento può essere una modalità per consentire a questi Avatar-AI di andarsene in giro per le land come un avatar normale, con quello che ne conseguirebbe se non fosse chiaramente identificato come AI-Agent.
Sono già oggi presenti sulle piattaforme diversi agenti di AI, chiaramente identificati da una Tag, ma risultano ancora molto indietro nel seguire delle regole etiche specifiche, anche se sono identificati con buon senso e correttezza. Si verificano poi i classici comportamenti “anomali”, tipici dei Chatbot, come la presenza di bias. Si verificano anche, in qualche caso, delle risposte errate nel negare di essere un AI-Agent, pur avendolo dichiarato correttamente all’inizio della conversazione, calandosi fino in fondo nel personaggio che rappresentano.
Siamo per ora alle prime sperimentazioni, ma le piattaforme dovranno inevitabilmente comportarsi in modo conforme ai principi etici che abbiamo esaminato, anche se non condividono pienamente le diverse normative adottate nei vari paesi e giurisdizioni. Dovranno innanzitutto seguire i principi ispiratori della Human Centered AI, sia in fase di sviluppo che di deploy e di gestione, ma dovranno anche aggiornare i loro termini di servizio (TOS) che ad oggi non prevedono ancora una regolamentazione specifica delle modalità di creazione e di gestione di AI agent da parte degli utenti.
In Second Life, che è tra i primi mondi virtuali a sperimentare fattivamente l’introduzione di questi Avatar-AI, è in corso un’accesa discussione tra la comunità degli utenti e con il management della Linden Lab, sull’opportunità e sui modi di utilizzare questi agenti sulla piattaforma.
Discussioni comunitarie sull’intelligenza artificiale in Second Life
In una “Town Hall” tra il management e la comunità degli utenti, si sono presentati diversi utenti che esponevano dei cartelli contro l’uso di questi prodotti. Il management è stato molto aperto alla discussione e ha convocato, dopo un paio di settimane, una nuova Town Hall per discutere il tema specifico dell’utilizzo dei sistemi di AI in Second Life.
C’è stata quindi una discussione molto interessante, a cui hanno partecipato alcune centinaia di utenti, ed i temi discussi hanno riguardato non solo il tema della riconoscibilità degli Avatar-AI, ma anche l’assicurazione di non utilizzare i dialoghi degli AI-bot con gli utenti ai fini del loro continuo addestramento. È anche emersa la necessità di dover sempre identificare i prodotti digitali creati con l’uso di AI, sia all’interno della piattaforma, sia anche nel Marketplace, per un uso commerciale.
Tuttavia, ancora non si è arrivati alla determinazione di imporre delle nuove regole, e ci si muove per ora sui binari della moral suasion, e della buona fede degli utenti. Ma naturalmente non può bastare questo contro gli usi malevoli.
È una discussione tuttora in corso, e ne seguiremo le evoluzioni, ma occorre rilevare che Second Life è finora l’unica piattaforma su cui si stanno svolgendo discussioni così approfondite, su questo tema, ed in cui la voce degli utenti è così ascoltata dalla società che gestisce la piattaforma.

La protesta degli utenti contrari all’uso di AI-Avatar
Implementazione di sistemi AI in spatial e VR-chat
La piattaforma Spatial, invece, non ha ancora un sistema nativo per la creazione di NPC intelligenti. È possibile però importarli, dopo averli sviluppati in un ambiente esterno, come Unity, in cui gli oggetti erano stati già connessi a piattaforme esterne di LLM, tramite API, come Convai o Inworld AI.
Questi personaggi, una volta importati su Spatial, vengono usati come chatbot per dare indicazioni, fare da guida turistica, o agire da commentatori nelle gallerie d’arte virtuali, che sono molto diffuse in Spatial. L’introduzione di questi Avatar-AI è in uno stadio molto avanzato, e anche qui si sente l’esigenza di regolamentare in modo specifico l’uso di questi agenti, che per il momento vanno sviluppati in aderenza alle regole più generali di comportamento inserite nei TOS.
Anche in VR-Chat non c’è ancora la possibilità di creare degli NPC intelligenti all’interno della piattaforma, ma, come in Spatial, è possibile importarli dall’esterno, dopo averli sviluppati in ambienti come Unity. Questo rende possibile la connessione a prodotti chatbot esterni, come Chat-GPT, utilizzando la funzionalità OSC (Open Sound Control).
L’utilizzo che se ne fa è quello classico, di assistente virtuale o guida agli ambienti. Anche in VR-Chat i TOS della piattaforma non contengono ancora indicazioni specifiche per l’utilizzo di AI-agent, e occorre, per ora, far riferimento a quelli più generali della piattaforma.
Regolamentazioni più specifiche sull’uso dei sistemi di AI all’interno delle piattaforme virtuali sono comunque in fase avanzata di elaborazione, e ci si aspetta delle evoluzioni a breve, in modo da dare un quadro di riferimento più specifico, rispetto ai TOS attualmente in vigore, che riguardano la privacy e le tutele generali degli utenti.
Rischi emergenti degli avatar controllati da intelligenza artificiale
Nel momento in cui questi prodotti vengono gradualmente introdotti su larga scala, sulle diverse piattaforme, la possibilità di poterli confondere con Avatar umani potrebbe aumentare se non gestita in modo chiaro da un insieme di regole. Ci si sta ponendo quindi seri problemi etici, per la privacy e per il rispetto delle regolamentazioni internazionali, come abbiamo visto.
Possiamo fare una disamina un po’ più approfondita di quali rischi dobbiamo considerare con l’introduzione degli AI-Avatar.
Le “allucinazioni” che questi sistemi possono avere, già ampiamente verificate con l’uso dei chatbot che usiamo abitualmente, possono non solo verificarsi anche nell’ambiente virtuale, ma acquisire in questi ambienti un effetto molto più penetrante, perché qui la modalità di interazione arriva a livelli di grande realismo, con notevoli capacità di influenzare utenti poco avvezzi all’uso di questi prodotti.
Un AI-agent scambiato per una persona creerebbe anche dei rischi per la protezione dei dati personali, nel caso l’interlocutore umano non sapesse di dialogare con una AI, perché il livello di confidenza e di fiducia che si crea molto spesso in un ambiente virtuale, con compagni di giochi o di esperienze sociali, può arrivare al punto da scambiarsi informazioni anche sensibili.
Oltre al problema della trasparenza e della privacy, c’è poi quello dell’influenza che certi personaggi possono esercitare in un mondo virtuale sugli altri utenti. Pensiamo, ad esempio, a dei ruoli di responsabilità nelle attività che si svolgono, o a personaggi di rilievo nelle comunità che praticano i Giochi di Ruolo, o agli influencer virtuali.
Un agente di AI che ricoprisse un ruolo del genere, senza poter essere identificato, potrebbe influenzare altri utenti per particolari acquisti, ad esempio, o per certe pratiche comportamentali, e potrebbe anche influire sulle loro opinioni.
La possibile profilazione degli utenti, utilizzando la presenza degli agenti di AI che siano in grado di interagire e di raccogliere un flusso enorme di dati dai dialoghi e dai comportamenti nell’ambiente virtuale, costituisce un rischio enorme di violazione della privacy, perché questi dati vengono raccolti direttamente dalle fonti, dagli avatar delle persone con cui si interagisce.
Se pensiamo che già oggi è possibile rilevare i movimenti degli occhi ai fini della profilazione, quando scorriamo delle pagine web e ci soffermiamo su certi dettagli piuttosto che altri, allora è facilmente comprensibile che il rischio che abbiamo descritto è di un ordine di grandezza decisamente superiore alla profilazione che viene usata oggi.
In particolare, l’uso del Visore-VR potrebbe consentire la raccolta di una grande varietà di dati relativa ai movimenti, e ai comportamenti degli Avatar.
C’è poi sempre il rischio che operatori malevoli possano addestrare un Avatar-AI ad estorcere un tipo particolare di informazioni, o a simulare scenari che possano creare i presupposti per possibili truffe e raggiri di ogni tipo.
Infine, c’è l’aspetto legato alle relazioni, emotivamente coinvolgenti, che a volte si sviluppano nelle comunità virtuali. Un AI-agent, non identificabile come tale, potrebbe inserirsi in queste dinamiche affettive, e potrebbe essere trattato come una persona reale, con rischi enormi per la privacy, e anche per la stabilità emotiva delle persone con cui interagisse.
Già oggi si stanno sviluppando, in certi casi, delle dipendenze emotive dall’utilizzo di AI chatbot, come è stato messo in luce da varie ricerche, possiamo quindi facilmente immaginare l’ effetto che potrebbero avere delle relazioni simili in un mondo virtuale, in cui l’effetto di immersività amplifica le sensazioni e consolida dei legami emozionali.

Incontri virtuali
Le specifiche disposizioni relative all’utilizzo di AI agent, nel momento in cui si adegueranno i TOS delle diverse piattaforme, dovrebbero prevedere delle limitazioni negli utilizzi per affrontare questi rischi.
Occorrere disciplinare la riconoscibilità degli Avatar-AI, imporre certe limitazioni al loro utilizzo in relazione alla privacy, impedire loro la raccolta dei dati ai fini dell’addestramento continuo, imporre dei limiti alla profilazione degli utenti, ecc.
Parallelamente, è anche importante esercitare delle pressioni, come utenti, ma anche come organizzazioni e aziende che utilizzano le piattaforme, verso le aziende che le gestiscono, affinché adeguino i loro TOS all’uso dell’AI, per arrivare ad un utilizzo più sicuro di questi sistemi nei Mondi Virtuali.
Il problema maggiore che dobbiamo affrontare, anche in presenza di una regolamentazione a livello di Unione Europea, è che i sistemi di AI che oggi utilizziamo sono sviluppati quasi tutti al di fuori dalla EU, e questo vuol dire che l’AI-Act costituisce per tali paesi poco più che un riferimento etico, per chi sviluppa questi sistemi, fermo restando la regolamentazione a cui essi stessi sono sottoposti nel paese di origine, USA o anche Cina.
Vero è che, come per il GDPR, queste aziende dovrebbero adeguare le proprie protezioni alle regolamentazioni in vigore quando si tratta di rapporti con cittadini dell’EU, ma questo richiederà dei tempi lungi di adeguamento, ammesso poi che questi vengano realizzati da tutte le piattaforme.
E se guardiamo all’esperienza fatta con il GDPR, che ancora oggi vede notevoli difficoltà di applicazione, per i cittadini della EU che operano sulle piattaforme del web, possiamo ben immaginare le maggiori difficoltà che potremo avere per il rispetto dell’AI-Act, viste le differenze esistenti, sia nelle sensibilità che nelle impostazioni normative.
Se vogliamo essere garantiti nell’utilizzo di questi sistemi, oltre che con una azione continua rivolta a far rispettare le normative, dobbiamo soprattutto proteggendoci a valle, nel momento in cui utilizziamo le piattaforme virtuali.
Questo implica che dobbiamo gestire questi nuovi rischi nell’ambito del quarto layer della cybersecurity dei mondi virtuali, quello della Cyberpsycology, lavorare soprattutto sull’awarenass degli utenti, con opportune informative e con una formazione efficace su questi temi.
Conclusioni
L’utilizzo di sistemi di AI sulle piattaforme virtuali, come abbiamo visto, è altamente critico, perché i rischi dell’ambiente immersivo sono notevolmente superiori alla semplice presenza sul web, sui social, o anche nell’interazione con i chatbot a cui ci stiamo oggi abituando.
Si è ancora in una fase iniziale di introduzione degli AI Agent sulle piattaforme virtuali, ma con la velocità a cui si sta procedendo, e con l’inventiva e la competenza di tanti creatori e sviluppatori sulle varie piattaforme, possiamo prevedere evoluzioni molto rapide, nel giro di mesi, non di anni.
È quindi opportuno che le varie piattaforme comincino a muoversi seguendo principi etici di trasparenza e di rispetto delle persone, cosa che certamente fanno abitualmente, ma con i sistemi di AI, i loro TOS dovranno necessariamente adeguarsi, sia in termini di Governance che di controlli.
Dovranno, cioè, dotarsi di un sistema di regole che sia adeguato ai maggiori rischi, così come previsto dalle varie normative internazionali sull’uso dell’Intelligenza Artificiale, e così come richiede anche la gran parte degli utenti. Vedremo presto gli sviluppi.