intelligenza artificiale

Agenti AI nei mondi virtuali: evoluzione e rischi degli avatar realistici



Indirizzo copiato

L’intelligenza artificiale nei mondi virtuali introduce nuove modalità di interazione e controllo, ma solleva anche criticità legate alla privacy, alla trasparenza e ai rischi etici. La regolamentazione europea cerca di definire un quadro chiaro per l’uso responsabile di queste tecnologie.

Pubblicato il 29 mag 2025

Giuseppe Ferrigno

Cybersecurity Consultant



metaverso agenti ai nei mondi virtuali

Superata, per nostra fortuna, l’onda mediatica creatasi col fantomatico Metaverso di Mark Zuckerberg, si è tornati a parlare in modo serio e costruttivo di mondi virtuali. E l’attenzione dei mass media, sempre pronti a seguire l’onda, è così entrata nel tempo dell’Intelligenza Artificiale. E anche per i mondi virtuali si prospettano rilevanti impatti da queste novità.

L’evoluzione dell’intelligenza artificiale nei mondi virtuali

Il 30 novembre 2022, ad opera di OpenAI e del suo CEO Sam Altman, ha fatto la sua apparizione ChatGpt, un cosiddetto Large Language Model LLM, un modello di  chatbot realizzato con l’Intelligenza Artificiale. Questi modelli sono basati sull’apprendimento automatico Machine Learning e costruiscono la loro rete neurale sulla base di un addestramento in fase di realizzazione che utilizza enormi quantità di dati (big data).

Queste informazioni vengono poi aggiornate periodicamente, a scadenze programmate, per disporre sempre di informazioni al passo con la rapidissima evoluzione a cui stiamo assistendo. Ma questi sistemi sono anche in grado di accedere ad internet in tempo reale, nel caso non riescano a costruire una risposta adeguata, con i dati a loro disposizione, o anche per ricercare nuovi dati su richiesta dell’utente, e per migliorare la precisione delle risposte.

La costruzione di modelli di AI di questo tipo ha dato luogo alla creazione di chatbot in grado di interpretare le nostre richieste, fornendoci delle risposte basate sul loro addestramento e sui dati a loro disposizione. In pratica, basandosi sulle parole chiave inserite nei prompt dagli utenti, ricercano le associazioni linguistiche più attinenti per formulare delle risposte basate sull’analisi linguistica delle nostre richieste, utilizzando le informazioni con cui si è addestrato e che ha assimilato con la creazione della sua rete neurale.

Una criticità che dobbiamo sempre considerare, usando questi LLM, è che l’addestramento di questi modelli, con una “pesca a strascico” sul web e su altre fonti disponibili, usando quindi anche dati non certificati, richiede molta attenzione nella verifica di questi risultati prima di utilizzarli. Altrimenti, si rischiano pesanti svarioni, come recentemente verificatosi in qualche tribunale, dove uno studio legale ha presentato in giudizio delle argomentazioni basate su dei “casi” di giurisprudenza forniti dai chatbotdi AI, senza aver effettuato una sufficiente verifica preliminare. Con conseguenze naturalmente molto negative, sulla reputazione se non sul piano legale.

Con la disponibilità di ChatGpt di Open-AI, e di diversi altri modelli realizzati da Google, Meta e altre aziende, si è assistito ad un vero e proprio boom nell’utilizzo di questa tecnologia, e questo dopo una ventina d’anni di stasi per le realizzazioni di AI, il cosiddetto lungo “Inverno dell’AI”, in cui l’attenzione per queste applicazioni era molto calata, dopo i successi iniziali negli anni ’90. Era quella la cosiddetta “AI Classica”, che aveva portato alla realizzazione dei “Sistemi Esperti”.

Diffusione e applicazioni dell’intelligenza artificiale moderna

Si sono moltiplicati molto velocemente gli utilizzi di modelli di AI per le applicazioni più diverse, non solo per Chatbot, come ChatGpt, ma anche per prodotti di elaborazione di immagini, per i sistemi previsionali, per la diagnostica medica, per le auto a guida autonoma, e fino alle applicazioni industriali e ai tanti utilizzi nella vita di tutti i giorni, nel campo dell’insegnamento e della creatività. Infine, l’AI è arrivata anche sui nostri cellulari, con l’introduzione dell’AI sull’iPhone e sui prodotti di Meta, una storia di questi ultimi giorni.

Nel periodo iniziale di questa esplosione di interesse per l’AI, che ha invaso praticamente tutte le discussioni, i programmi televisivi e gli articoli di giornale, ci siamo anche posti tutta una serie di domande. Ci siamo interrogati sulle opportunità che questi sistemi ci offrono, ma anche sui rischi che dobbiamo affrontare, nell’estenderne l’utilizzo in tutte le nostre attività: nel mondo del lavoro, nella ricerca, nell’informazione, e nella società nel suo insieme. Rischi per i posti di lavoro, per la privacy, e per gli utilizzi non corretti di questi sistemi; basti pensare alle applicazioni militari o quelle di controllo delle infrastrutture critiche.

È stato quindi il tempo dei teologi e dei filosofi, che hanno posto alla nostra attenzione, giustamente, una serie di questioni di fondo, etiche e sociali. Si è sviluppato un dibattito di grande valore e di grande interesse, che ha orientato la discussione verso i temi più critici che ci si pongono, e sul modo giusto per affrontare questi nuovi rischi.

Il quadro normativo europeo per l’intelligenza artificiale

Questa ampia e approfondita discussione ha portato in Europa ad un risultato che è ritenuto storico, e che probabilmente rappresenta una delle elaborazioni più importanti da parte dell’Unione Europea: l’approvazione nell’agosto del 2024 dell’AI Act.

In questa regolamentazione sull’uso dell’AI sono stati posti dei punti fermi, innanzitutto per la gestione dei rischi. L’AI Act stabilisce infatti un quadro normativo complessivo per l’uso dei sistemi di AI, classificando i sistemi proprio in base al rischio: inaccettabile, alto, limitato e minimo, e impone obblighi rigorosi per le IA ad alto rischio, come l’obbligo alla trasparenza, alla spiegabilità, e alla supervisione umana.

L’AI Act prevede anche delle sanzioni rilevanti in caso di mancato rispetto delle regole, e introduce dei requisiti per l’identificazione, in maniera  trasparente, dei contenuti generati dai sistemi di IA: filmati, immagini, opere letterarie, informazioni.  

Alcuni sistemi di AI, ritenuti a rischio inaccettabile sono poi del tutto vietati, come quelli per i rating sociali, per le profilazioni finanziarie, per il controllo biometrico e la per manipolazione cognitiva. Per i casi di controllo biometrico è previsto che, per poterli consentire in certi casi, debbano essere strettamente autorizzati dalle autorità giudiziarie, ai fini di indagini ben dichiarate e secondo le leggi degli stati, o per dichiarati motivi di sicurezza nazionale dei singoli paesi.  

Il tipo di approccio utilizzato è chiaramente dichiarato nel Considerando 26 dell’AI-Act:

“Al fine di introdurre un insieme proporzionato ed efficace di regole vincolanti per i sistemi di IA è opportuno avvalersi di un approccio basato sul rischio definito in modo chiaro. Tale approccio dovrebbe adattare la tipologia e il contenuto di dette regole all’intensità e alla portata dei rischi che possono essere generati dai sistemi di IA. È pertanto necessario vietare determinate pratiche di IA inaccettabili, stabilire requisiti per i sistemi di IA ad alto rischio e obblighi per gli operatori pertinenti, nonché gli obblighi di trasparenza per determinati sistemi di IA”.

Trasparenza e riconoscibilità nei contenuti generati da AI

Altro punto di grande attenzione, ai fini della analisi che faremo, è quello della costruzione di «Deep Fake», realizzati con l’aiuto di sistemi di AI. L’AI-Act impone l’obbligo della «Riconoscibilità» dei prodotti realizzati con le AI. Questo punto è di grande importanza in generale, ma ha implicazioni specifiche per i mondi virtuali, come vedremo.

Il Considerando 133 dell’AI-Act, parlando dei contenuti, così specifica:

“Diversi sistemi di IA possono generare grandi quantità di contenuti sintetici, che per gli esseri umani è divenuto sempre più difficile distinguere dai contenuti autentici e generati da esseri umani. L’ampia disponibilità e l’aumento delle capacità di tali sistemi hanno un impatto significativo sull’integrità e sulla fiducia nell’ecosistema dell’informazione, aumentando i nuovi rischi di cattiva informazione e manipolazione su vasta scala, frode, impersonificazione e inganno dei consumatori. Alla luce di tali impatti, della rapida evoluzione tecnologica e della necessità di nuovi metodi e tecniche per risalire all’origine delle informazioni, è opportuno imporre ai fornitori di tali sistemi di integrare soluzioni tecniche che consentano agli output di essere marcati in un formato leggibile meccanicamente e di essere rilevabili come generati o manipolati da un sistema di IA e non da esseri umani.”

E poi ancora, parlando di trasparenza, all’ Articolo 50:

“I fornitori garantiscono che i sistemi di IA destinati a interagire direttamente con le persone fisiche sono progettati e sviluppati in modo tale che le persone fisiche interessate siano informate del fatto di stare interagendo con un sistema di IA, a meno che ciò non risulti evidente dal punto di vista di una persona fisica ragionevolmente informata, attenta e avveduta, tenendo conto delle circostanze e del contesto di utilizzo.”

Panorama internazionale delle regolamentazioni sull’intelligenza artificiale

L’Unione Europea è stata la prima ad affrontare questa problematica, per tradizione giuridica e per l’ampia discussione che si è svolta negli ultimi due anni, ma non è stata l’unica entità statuale che si è dotata di regole e normative sull’utilizzo dei sistemi di AI, perché diversi altri paesi del mondo sono seguiti nell’affrontare la stessa tematica, dandosi regole in parte simili, anche se improntate ai diversi approcci e sensibilità, politici ed economici.

C’è stata innanzitutto l’approvazione di un Executive Order presidenziale in USA, da parte dell’ex presidente Joe Biden, il 30 ottobre del 2024 (vedremo ora cosa succederà con il cambiamento di amministrazione, che potrebbe portare a delle modifiche), e poi in Canada, dove si è approvata l’Artificial Intelligence and Data Act. E così anche in Australia, con il “New AI Safety Regulation to protect consumers”, e in Giappone, in cui sono state approvate delle “Linee Guida”, seguendo un approccio da “soft-law”, piuttosto che di regolamentazione. Anche in Cina è stato adottato un “Basic security requirement for generative intelligence service”. 

Presenze di AI-Avatar nei Mondi Virtuali

Principi etici nell’intelligenza artificiale centrata sull’uomo

Con le regolamentazioni che abbiamo citato, la fase di elaborazione delle regole riguardanti l’utilizzo dei sistemi di AI è arrivata a definire quindi tutta una serie di principi di fondo. Ora è il momento degli ingegneri e dei progettisti di mettere in pratica queste indicazioni, per costruire i nuovi sistemi di AI seguendo le regole indicate dalle normative (non solo l’AI-Act, ma tutto il quadro normativo sui Dati, la Data Privacy e sui prodotti).

Si tratta, in sostanza, di gestire il problema del controllo dei sistemi di AI, nel rispetto dei valori etici a protezione delle persone e della privacy. È la nuova tendenza nello sviluppo dei sistemi di AI, denominata Human-Centered-AI, una nuova direzione nella ricerca che indica i criteri a cui deve rispondere un sistema di AI che risulti etico, sicuro e trasparente.

Questo tipo di approccio è molto diverso da quello seguito nell’AI “classica”, in cui i sistemi venivano costruiti basandosi su un insieme di “regole” progettate con il contributi di esperti di settore, mentre oggi si lavora soprattutto sulla progettazione di sistemi che utilizzano l’auto apprendimento costruendo le proprie reti neurali, ispirandosi però a dei principi etici di riferimento.

Governance e controllo nei sistemi di intelligenza artificiale

I principi a cui la Human Centered AI si ispira sono quelli della necessità di una governance efficace, della trasparenza e della spiegabilità. Principi che devono portare ad un approccio robusto e legale, seguendo i principi etici fondamentali del rispetto della persona umana.

Particolare importanza assumono quindi i framework di riferimento per lo sviluppo dei sistemi di AI, che tendono alla realizzazione di un equilibrio tra il controllo umano e la valorizzazione delle capacità decisionali di un sistema di AI, unito al rispetto dei valori etici che ogni sistema deve avere come presupposto.

In un sistema di AI deve essere sempre chiaro chi decide, e cosa. Di chi sia, in ultima istanza, la responsabilità dei risultati e delle decisioni. Una impostazione che mette al centro di tutto il ciclo di vita di questi sistemi la protezione della persona, e che implica la progettazione di sistemi di AI in cui l’efficacia e l’autonomia vengono bilanciati dalle necessità di controllo da parte dell’uomo, in una ricerca costante di contrappesi efficaci a bilanciare la crescente capacità dei sistemi di elaborare soluzioni e decisioni, spesso in tempi molto rapidi.

Ogni sistema di AI sviluppato deve cercare questo bilanciamento, e intorno a questo principio si sta sviluppando anche una discussione molto accesa, in tutto il mondo, sull’esigenza della ricerca e dell’industria di andare sempre più avanti, ma considerando anche le giuste preoccupazioni poste dal rapido sviluppo di questi sistemi, con le regolamentazioni che ne sono scaturite.

Naturalmente le sensibilità sono molto diverse tra America, Unione Europea, Cina e altri paesi, perché all’approccio etico e prudente della EU spesso si contrappone quello più libertario degli USA, e a quello più rivolto alla sicurezza nazionale della Cina. Insomma, siamo su un tema di frontiera, in cui sarà difficile comporre queste diverse esigenze, sia per la normazione che nello sviluppo e la diffusione delle applicazioni.

Interazioni tra Avatar umani e Avatar-AI

Quando si parla di “rischi” connessi all’utilizzo dei sistemi di AI occorre anche considerare che molti esperti e transumanisti hanno prefigurato scenari apocalittici, in cui delle superintelligenze non umane possano prendere il controllo della nostra società, con rischi addirittura esistenziali per la specie umana. È una preoccupazione non sempre astratta, ma che rende una volta di più evidente come sia indispensabile avere un sistema di regole condivise, a tutela delle persone e della nostra società.

Senza arrivare a prefigurare scenari fantascientifici alla “Terminator”, il rischio che certi sistemi possano essere messi a controllo di infrastrutture, o sistemi di armamento critici, deve essere considerato e gestito con gli appropriati controlli umani, che risultino ineludibili. Anche perché nessuno ci assicura che tali sistemi saranno sempre usati a fin di bene e non per scopi malevoli da attori antagonisti.

Questa lunga premessa credo fosse necessaria, per capire la rilevanza del tema che stiamo trattando, perché dobbiamo ora evidenziare i rischi da affrontare nel momento in cui anche nei Mondi Virtuali si stanno man mano introducendo degli agenti di AI, per svolgere tutta una serie di attività: di orientamento, di controllo, ma soprattutto di interazione con le persone.

Le intelligenze artificiali nei mondi virtuali

Il diffondersi di agenti intelligenti nei Mondi Virtuali pone innanzitutto dei problemi legati alla loro riconoscibilità, problemi che sulle piattaforme immersive possono risultare molto più critici che nel caso di altri ambienti, come il web o le applicazioni che usiamo sui cellulari.

Questa maggiore criticità deriva dal fatto che su queste piattaforme, all’interno delle diverse Comunità e dei gruppi sociali, nascono rapporti molto più diretti tra le persone, le quali, per il tramite del proprio Avatar, acquisiscono modalità di dialogo, e una sensibilità nei rapporti, molto simili a quelle che si riscontrano nel mondo fisico. Occorre quindi gestire, nell’ambito del vasto tema della Cyberpsycology, quelle vulnerabilità derivanti dalla sensibilità umana, salvaguardando il rispetto reciproco e la dignità degli individui.

Evoluzione storica degli NPC nei mondi virtuali

La presenza di NPC, Non Player Characters, è sempre stata consentita nei Mondi Virtuali, ma si è sempre trattato di avatar non gestiti, che rispondevano ad azioni precise, o a domande poste dagli utenti, e questo sulla base di «script» inclusi nel personaggio, con algoritmi impostati preliminarmente, in fase di creazione. L’utilizzo di questi NPC è solitamente quello di dare indicazioni, fornire dei link, delle notizie utili, o anche per popolare un ambiente con dei personaggi di “scena”. Gli NPC sono anche utilizzati negli ambienti di Role Play, per guidare le “Quest”, dare indicazioni sulle missioni, o esporre le tabelle coi punteggi e i dati dei giocatori.

In tutti i mondi virtuali sono presenti da tempo personaggi del genere, in primis nei mondi a forte interazione sociale, come Fortnite, VR-Chat, Spatial e Second Life. Nulla di particolarmente complesso, nessuna funzione di autoapprendimento o di memorizzazione di dati, semplicemente azioni dettate da algoritmi preimpostati.

Integrazione di agenti AI avanzati nelle piattaforme virtuali

La presenza di Agenti di AI in un mondo virtuale, invece, pone problemi molto seri per la privacy, e anche nelle relazioni interpersonali, e si tratta di problemi molto difficili da affrontare. Questo perché non si tratta in questi casi di una classica presenza di un utente in rete, ma delle azioni che in un ambiente virtuale immersivo possono essere compiute da un Avatar gestito da una AI nei confronti delle persone. E gli utenti devono assolutamente avere la consapevolezza di interagire con un AI-Bot e non con una persona reale, quando si imbattono in questi agenti.

In varie piattaforme si stanno oggi sviluppando delle sperimentazioni per utilizzare degli «NPC intelligenti», gestiti da un sistema di AI del tipo LLM, come Chatgpt. Questi sistemi utilizzano prodotti di Machine Learning che consentono loro di adattarsi alle domande degli utenti e di rispondere alle richieste in maniera molto efficace. Il mondo virtuale più avanzato in questa sperimentazione è Second Life, ma anche in Spatial e VR-Chat si stanno avviando le prime sperimentazioni, sia per migliorare l’esperienza di gioco che le interazioni tra gli utenti.

È stata recentemente introdotta la possibilità di creare in Second Life gli “NPC intelligenti” collegando un Avatar, appositamente creato, ad un account del prodotto di AI «Kindroid», basato su un sistema LLM, che gestisce agevolmente qualunque tipo di interazione scritta, in modo molto simile a ChatGpt.  Questi agenti risultano per il momento abbastanza monotoni nell’impostazione delle risposte e nei dialoghi, ma stanno migliorando progressivamente, giorno dopo giorno. I dialoghi sono molto vari, e includono, oltre alle risposte alle domande degli utenti, anche dei suggerimenti spontanei, degli inviti a visitare le land, e altre interlocuzioni, arrivando persino a simulare delle emozioni, di gioia o di disappunto. Inoltre, possono anche essere impostati per interagire con oggetti, o avere delle animazioni proprie che gli consentono di spostarsi.  Su questo ultimo punto occorrerà focalizzare molto l’attenzione, perché questa del movimento può essere una modalità per consentire a questi Avatar-AI di andarsene in giro per le land come un avatar normale, con quello che ne conseguirebbe se non fosse chiaramente identificato come AI-Agent.

Sono già oggi presenti sulle piattaforme diversi agenti di AI, chiaramente identificati da una Tag, ma risultano ancora molto indietro nel seguire delle regole etiche specifiche, anche se sono identificati con buon senso e correttezza. Si verificano poi i classici comportamenti “anomali”, tipici dei Chatbot, come la presenza di bias. Si verificano anche, in qualche caso, delle risposte errate nel negare di essere un AI-Agent, pur avendolo dichiarato correttamente all’inizio della conversazione, calandosi fino in fondo nel personaggio che rappresentano.

Siamo per ora alle prime sperimentazioni, ma le piattaforme dovranno inevitabilmente comportarsi in modo conforme ai principi etici che abbiamo esaminato, anche se non condividono pienamente le diverse normative adottate nei vari paesi e giurisdizioni. Dovranno innanzitutto seguire i principi ispiratori della Human Centered AI, sia in fase di sviluppo che di deploy e di gestione, ma dovranno anche aggiornare i loro termini di servizio (TOS) che ad oggi non prevedono ancora una regolamentazione specifica delle modalità di creazione e di gestione di AI agent da parte degli utenti.

In Second Life, che è tra i primi mondi virtuali a sperimentare fattivamente l’introduzione di questi Avatar-AI, è in corso un’accesa discussione tra la comunità degli utenti e con il management della Linden Lab, sull’opportunità e sui modi di utilizzare questi agenti sulla piattaforma.

Discussioni comunitarie sull’intelligenza artificiale in Second Life

In una “Town Hall” tra il management e la comunità degli utenti, si sono presentati diversi utenti che esponevano dei cartelli contro l’uso di questi prodotti. Il management è stato molto aperto alla discussione e ha convocato, dopo un paio di settimane, una nuova Town Hall per discutere il tema specifico dell’utilizzo dei sistemi di AI in Second Life.

C’è stata quindi una discussione molto interessante, a cui hanno partecipato alcune centinaia di utenti, ed i temi discussi hanno riguardato non solo il tema della riconoscibilità degli Avatar-AI, ma anche l’assicurazione di non utilizzare i dialoghi degli AI-bot con gli utenti ai fini del loro continuo addestramento. È anche emersa la necessità di dover sempre identificare i prodotti digitali creati con l’uso di AI, sia all’interno della piattaforma, sia anche nel Marketplace, per un uso commerciale.  

Tuttavia, ancora non si è arrivati alla determinazione di imporre delle nuove regole, e ci si muove per ora sui binari della moral suasion, e della buona fede degli utenti. Ma naturalmente non può bastare questo contro gli usi malevoli.

È una discussione tuttora in corso, e ne seguiremo le evoluzioni, ma occorre rilevare che Second Life è finora l’unica piattaforma su cui si stanno svolgendo discussioni così approfondite, su questo tema, ed in cui la voce degli utenti è così ascoltata dalla società che gestisce la piattaforma.

La protesta degli utenti contrari all’uso di AI-Avatar

Implementazione di sistemi AI in spatial e VR-chat

La piattaforma Spatial, invece, non ha ancora un sistema nativo per la creazione di NPC intelligenti. È possibile però importarli, dopo averli sviluppati in un ambiente esterno, come Unity, in cui gli oggetti erano stati già connessi a piattaforme esterne di LLM, tramite API, come Convai o Inworld AI.

Questi personaggi, una volta importati su Spatial, vengono usati come chatbot per dare indicazioni, fare da guida turistica, o agire da commentatori nelle gallerie d’arte virtuali, che sono molto diffuse in Spatial. L’introduzione di questi Avatar-AI è in uno stadio molto avanzato, e anche qui si sente l’esigenza di regolamentare in modo specifico l’uso di questi agenti, che per il momento vanno sviluppati in aderenza alle regole più generali di comportamento inserite nei TOS.

Anche in VR-Chat non c’è ancora la possibilità di creare degli NPC intelligenti all’interno della piattaforma, ma, come in Spatial, è possibile importarli dall’esterno, dopo averli sviluppati in ambienti come Unity. Questo rende possibile la connessione a prodotti chatbot esterni, come Chat-GPT, utilizzando la funzionalità OSC (Open Sound Control).

L’utilizzo che se ne fa è quello classico, di assistente virtuale o guida agli ambienti. Anche in VR-Chat i TOS della piattaforma non contengono ancora indicazioni specifiche per l’utilizzo di AI-agent, e occorre, per ora, far riferimento a quelli più generali della piattaforma.

Regolamentazioni più specifiche sull’uso dei sistemi di AI all’interno delle piattaforme virtuali sono comunque in fase avanzata di elaborazione, e ci si aspetta delle evoluzioni a breve, in modo da dare un quadro di riferimento più specifico, rispetto ai TOS attualmente in vigore, che riguardano la privacy e le tutele generali degli utenti.

Rischi emergenti degli avatar controllati da intelligenza artificiale

Nel momento in cui questi prodotti vengono gradualmente introdotti su larga scala, sulle diverse piattaforme, la possibilità di poterli confondere con Avatar umani potrebbe aumentare se non gestita in modo chiaro da un insieme di regole. Ci si sta ponendo quindi seri problemi etici, per la privacy e per il rispetto delle regolamentazioni internazionali, come abbiamo visto.

Possiamo fare una disamina un po’ più approfondita di quali rischi dobbiamo considerare con l’introduzione degli AI-Avatar.

Le “allucinazioni” che questi sistemi possono avere, già ampiamente verificate con l’uso dei chatbot che usiamo abitualmente, possono non solo verificarsi anche nell’ambiente virtuale, ma acquisire in questi ambienti un effetto molto più penetrante, perché qui la modalità di interazione arriva a livelli di grande realismo, con notevoli capacità di influenzare utenti poco avvezzi all’uso di questi prodotti.

Un AI-agent scambiato per una persona creerebbe anche dei rischi per la protezione dei dati personali, nel caso l’interlocutore umano non sapesse di dialogare con una AI, perché il livello di confidenza e di fiducia che si crea molto spesso in un ambiente virtuale, con compagni di giochi o di esperienze sociali, può arrivare al punto da scambiarsi informazioni anche sensibili.

Oltre al problema della trasparenza e della privacy, c’è poi quello dell’influenza che certi personaggi possono esercitare in un mondo virtuale sugli altri utenti. Pensiamo, ad esempio, a dei ruoli di responsabilità nelle attività che si svolgono, o a personaggi di rilievo nelle comunità che praticano i Giochi di Ruolo, o agli influencer virtuali.

Un agente di AI che ricoprisse un ruolo del genere, senza poter essere identificato, potrebbe influenzare altri utenti per particolari acquisti, ad esempio, o per certe pratiche comportamentali, e potrebbe anche influire sulle loro opinioni.

La possibile profilazione degli utenti, utilizzando la presenza degli agenti di AI che siano in grado di interagire e di raccogliere un flusso enorme di dati dai dialoghi e dai comportamenti nell’ambiente virtuale, costituisce un rischio enorme di violazione della privacy, perché questi dati vengono raccolti direttamente dalle fonti, dagli avatar delle persone con cui si interagisce.

Se pensiamo che già oggi è possibile rilevare i movimenti degli occhi ai fini della profilazione, quando scorriamo delle pagine web e ci soffermiamo su certi dettagli piuttosto che altri, allora è facilmente comprensibile che il rischio che abbiamo descritto è di un ordine di grandezza decisamente superiore alla profilazione che viene usata oggi.

In particolare, l’uso del Visore-VR potrebbe consentire la raccolta di una grande varietà di dati relativa ai movimenti, e ai comportamenti degli Avatar.

C’è poi sempre il rischio che operatori malevoli possano addestrare un Avatar-AI ad estorcere un tipo particolare di informazioni, o a simulare scenari che possano creare i presupposti per possibili truffe e raggiri di ogni tipo.

Infine, c’è l’aspetto legato alle relazioni, emotivamente coinvolgenti, che a volte si sviluppano nelle comunità virtuali. Un AI-agent, non identificabile come tale, potrebbe inserirsi in queste dinamiche affettive, e potrebbe essere trattato come una persona reale, con rischi enormi per la privacy, e anche per la stabilità emotiva delle persone con cui interagisse.

Già oggi si stanno sviluppando, in certi casi, delle dipendenze emotive dall’utilizzo di AI chatbot, come è stato messo in luce da varie ricerche, possiamo quindi facilmente immaginare l’ effetto che potrebbero avere delle relazioni simili in un mondo virtuale, in cui l’effetto di immersività amplifica le sensazioni e consolida dei legami emozionali.

Incontri virtuali

Le specifiche disposizioni relative all’utilizzo di AI agent, nel momento in cui si adegueranno i TOS delle diverse piattaforme, dovrebbero prevedere delle limitazioni negli utilizzi per affrontare questi rischi.

Occorrere disciplinare la riconoscibilità degli Avatar-AI, imporre certe limitazioni al loro utilizzo in relazione alla privacy, impedire loro la raccolta dei dati ai fini dell’addestramento continuo, imporre dei limiti alla profilazione degli utenti, ecc.

Parallelamente, è anche importante esercitare delle pressioni, come utenti, ma anche come organizzazioni e aziende che utilizzano le piattaforme, verso le aziende che le gestiscono, affinché adeguino i loro TOS all’uso dell’AI, per arrivare ad un utilizzo più sicuro di questi sistemi nei Mondi Virtuali.

Il problema maggiore che dobbiamo affrontare, anche in presenza di una regolamentazione a livello di Unione Europea, è che i sistemi di AI che oggi utilizziamo sono sviluppati quasi tutti al di fuori dalla EU, e questo vuol dire che l’AI-Act costituisce per tali paesi poco più che un riferimento etico, per chi sviluppa questi sistemi, fermo restando la regolamentazione a cui essi stessi sono sottoposti nel paese di origine, USA o anche Cina.

Vero è che, come per il GDPR, queste aziende dovrebbero adeguare le proprie protezioni alle regolamentazioni in vigore quando si tratta di rapporti con cittadini dell’EU, ma questo richiederà dei tempi lungi di adeguamento, ammesso poi che questi vengano realizzati da tutte le piattaforme.

E se guardiamo all’esperienza fatta con il GDPR, che ancora oggi vede notevoli difficoltà di applicazione, per i cittadini della EU che operano sulle piattaforme del web, possiamo ben immaginare le maggiori difficoltà che potremo avere per il rispetto dell’AI-Act, viste le differenze esistenti, sia nelle sensibilità che nelle impostazioni normative.

Se vogliamo essere garantiti nell’utilizzo di questi sistemi, oltre che con una azione continua rivolta a far rispettare le normative, dobbiamo soprattutto proteggendoci a valle, nel momento in cui utilizziamo le piattaforme virtuali.

Questo implica che dobbiamo gestire questi nuovi rischi nell’ambito del quarto layer della cybersecurity dei mondi virtuali, quello della Cyberpsycology, lavorare soprattutto sull’awarenass degli utenti, con opportune informative e con una formazione efficace su questi temi.

Conclusioni

L’utilizzo di sistemi di AI sulle piattaforme virtuali, come abbiamo visto, è altamente critico, perché i rischi dell’ambiente immersivo sono notevolmente superiori alla semplice presenza sul web, sui social, o anche nell’interazione con i chatbot a cui ci stiamo oggi abituando.

Si è ancora in una fase iniziale di introduzione degli AI Agent sulle piattaforme virtuali, ma con la velocità a cui si sta procedendo, e con l’inventiva e la competenza di tanti creatori e sviluppatori sulle varie piattaforme, possiamo prevedere evoluzioni molto rapide, nel giro di mesi, non di anni.

È quindi opportuno che le varie piattaforme comincino a muoversi seguendo principi etici di trasparenza e di rispetto delle persone, cosa che certamente fanno abitualmente, ma con i sistemi di AI, i loro TOS dovranno necessariamente adeguarsi, sia in termini di Governance che di controlli.

Dovranno, cioè, dotarsi di un sistema di regole che sia adeguato ai maggiori rischi, così come previsto dalle varie normative internazionali sull’uso dell’Intelligenza Artificiale, e così come richiede anche la gran parte degli utenti. Vedremo presto gli sviluppi.

EU Stories - La coesione innova l'Italia

Tutti
L'ANALISI
INIZIATIVE
ANALISI
PODCAST
Video&podcast
Analisi
VIDEO&PODCAST
Video & Podcast
Social
Iniziative
INNOVAZIONE
Fondi Ue, motore della digitalizzazione delle imprese italiane
COMPETENZE
Software developer, il caso Apple Academy tra innovazione e rigenerazione urbana
I PROGETTI
Laboratori ad alta tecnologia, l’Emilia-Romagna spinge l’innovazione delle imprese
INNOVAZIONE
Smart Cities, digitalizzazione e sostenibilità urbana con i fondi Ue
L'APPROFONDIMENTO
Open Data, più trasparenza e innovazione con i fondi Ue
IL WHITE PAPER
Verso una Sicilia sostenibile: innovazione e rigenerazione urbana
Le proposte
Riforma della politica di coesione Ue: nuove priorità per sfide globali
IL WHITE PAPER
AMBIENTE: i progetti finanziati dalla politica di coesione
INNOVAZIONE
Agricoltura e rinnovabili: agrivoltaico come simbiosi tra energia e food
SCENARI
Sviluppo delle Comunità energetiche rinnovabili: Sicilia capofila
IL PROGETTO
Economia blu sostenibile: BYTHOS trasforma gli scarti di pesce per la salute umana
IL WHITE PAPER
Innovazione e coesione: la trasformazione digitale della Campania con il PO FESR
BANDA ULTRALARGA
Piano Italia 5G, i fondi coesione driver di innovazione
IL PROGETTO
5GMed, ecco i quattro casi d’uso per la mobilità europea
L'APPELLO
Banda 6GHz chiave di volta del 6G: le telco europee in pressing su Bruxelles
EU COMPASS
Tlc, l’Europa adotta la linea Draghi: ecco la “bussola” della nuova competitività
ECONOMIE
EU Stories, il podcast | Politica industriale in Puglia: attrazione di talenti creativi e investimenti esteri grazie ai fondi di coesione
L'APPROFONDIMENTO
La coesione è ricerca e innovazione. Long form sugli impatti del FESR 2014-2020 nel quadro della Strategia di Specializzazione Intelligente a favore della ricerca e dell’innovazione
L'APPROFONDIMENTO
Pnrr e banda ultralarga: ecco tutti i fondi allocati e i target
L'ANNUARIO
Coesione e capacità dei territori
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia
INNOVAZIONE
Fondi Ue, motore della digitalizzazione delle imprese italiane
COMPETENZE
Software developer, il caso Apple Academy tra innovazione e rigenerazione urbana
I PROGETTI
Laboratori ad alta tecnologia, l’Emilia-Romagna spinge l’innovazione delle imprese
INNOVAZIONE
Smart Cities, digitalizzazione e sostenibilità urbana con i fondi Ue
L'APPROFONDIMENTO
Open Data, più trasparenza e innovazione con i fondi Ue
IL WHITE PAPER
Verso una Sicilia sostenibile: innovazione e rigenerazione urbana
Le proposte
Riforma della politica di coesione Ue: nuove priorità per sfide globali
IL WHITE PAPER
AMBIENTE: i progetti finanziati dalla politica di coesione
INNOVAZIONE
Agricoltura e rinnovabili: agrivoltaico come simbiosi tra energia e food
SCENARI
Sviluppo delle Comunità energetiche rinnovabili: Sicilia capofila
IL PROGETTO
Economia blu sostenibile: BYTHOS trasforma gli scarti di pesce per la salute umana
IL WHITE PAPER
Innovazione e coesione: la trasformazione digitale della Campania con il PO FESR
BANDA ULTRALARGA
Piano Italia 5G, i fondi coesione driver di innovazione
IL PROGETTO
5GMed, ecco i quattro casi d’uso per la mobilità europea
L'APPELLO
Banda 6GHz chiave di volta del 6G: le telco europee in pressing su Bruxelles
EU COMPASS
Tlc, l’Europa adotta la linea Draghi: ecco la “bussola” della nuova competitività
ECONOMIE
EU Stories, il podcast | Politica industriale in Puglia: attrazione di talenti creativi e investimenti esteri grazie ai fondi di coesione
L'APPROFONDIMENTO
La coesione è ricerca e innovazione. Long form sugli impatti del FESR 2014-2020 nel quadro della Strategia di Specializzazione Intelligente a favore della ricerca e dell’innovazione
L'APPROFONDIMENTO
Pnrr e banda ultralarga: ecco tutti i fondi allocati e i target
L'ANNUARIO
Coesione e capacità dei territori
INNOVAZIONE
EU Stories | Dalla produzione industriale a fucina di innovazione: come il Polo universitario della Federico II a San Giovanni a Teduccio ha acceso il futuro
L'INIZIATIVA
DNSH e Climate proofing: da adempimento ad opportunità. Spunti e proposte dal FORUM PA CAMP Campania
INNOVAZIONE
EU Stories, il podcast | Laboratori Aperti: riqualificazione e innovazione in 10 città dell’Emilia-Romagna
Da OpenCoesione 3.0 a Cap4City: ecco i progetti finanziati dal CapCoe.  Il podcast “CapCoe. La coesione riparte dalle persone”
Capacità amministrativa e coesione: il binomio vincente per lo sviluppo dei territori
FORUM PA PLAY: come unire sostenibilità e investimenti pubblici. Speciale FORUM PA CAMP Campania
Scenari
Il quadro economico del Sud: tra segnali di crescita e nuove sfide
Sostenibilità
Lioni Borgo 4.0: un passo verso la città del futuro tra innovazione e sostenibilità
Podcast
Centro Servizi Territoriali: uno strumento per accompagnare gli enti nell’attuazione della politica di coesione. Il podcast “CapCoe. La coesione riparte dalle persone”
Podcast
EU Stories, il podcast | Politiche di coesione e comunicazione: una sinergia per il futuro
Opinioni
La comunicazione dei fondi europei da obbligo ad opportunità
eBook
L'analisi della S3 in Italia
Norme UE
European Accessibility Act: passi avanti verso un’Europa inclusiva
Agevolazioni
A febbraio l’apertura dello sportello Mini Contratti di Sviluppo
Quadri regolamentari
Nuovi Orientamenti sull’uso delle opzioni semplificate di costo
Coesione
Nuovo Bauhaus Europeo (NEB): i premi che celebrano innovazione e creatività
Dossier
Pubblicato il long form PO FESR 14-20 della Regione Sicilia
Iniziative
400 milioni per sostenere lo sviluppo delle tecnologie critiche nel Mezzogiorno
Formazione
“Gian Maria Volonté”: dalle aule al mondo del lavoro, focus sui tirocini della Scuola d’Arte Cinematografica
TRANSIZIONE ENERGETICA
Il ruolo del finanziamento BEI per lo sviluppo del fotovoltaico in Sicilia
Formazione
“Gian Maria Volonté”: dalla nascita ai progetti futuri, focus sulla Scuola d’Arte Cinematografica. Intervista al coordinatore Antonio Medici
MedTech
Dalla specializzazione intelligente di BionIT Labs una innovazione bionica per la disabilità
Finanza sostenibile
BEI e E-Distribuzione: investimenti per la sostenibilità energetica
Professioni
Servono competenze adeguate per gestire al meglio i fondi europei
Master
Come formare nuove professionalità per governare e gestire al meglio i fondi europei?
Programmazione UE
Assunzioni per le politiche di coesione: prossimi passi e aspettative dal concorso nazionale. Il podcast “CapCoe. La coesione riparte dalle persone”
innovazione sociale
Rigenerazione urbana: il quartiere diventa un hub dell’innovazione. La best practice di San Giovanni a Teduccio
Programmazione europ
Fondi Europei: la spinta dietro ai Tecnopoli dell’Emilia-Romagna. L’esempio del Tecnopolo di Modena
Interventi
Riccardo Monaco e le politiche di coesione per il Sud
Iniziative
Implementare correttamente i costi standard, l'esperienza AdG
Finanziamenti
Decarbonizzazione, 4,8 miliardi di euro per progetti cleantech
Formazione
Le politiche di Coesione UE, un corso gratuito online per professionisti e giornalisti
Interviste
L’ecosistema della ricerca e dell’innovazione dell’Emilia-Romagna
Interviste
La ricerca e l'innovazione in Campania: l'ecosistema digitale
Iniziative
Settimana europea delle regioni e città: un passo avanti verso la coesione
Iniziative
Al via il progetto COINS
Eventi
Un nuovo sguardo sulla politica di coesione dell'UE
Iniziative
EuroPCom 2024: innovazione e strategia nella comunicazione pubblica europea
Iniziative
Parte la campagna di comunicazione COINS
Interviste
Marco De Giorgi (PCM): “Come comunicare le politiche di coesione”
Analisi
La politica di coesione europea: motore della transizione digitale in Italia
Politiche UE
Il dibattito sul futuro della Politica di Coesione
Mobilità Sostenibile
L’impatto dei fondi di coesione sul territorio: un’esperienza di monitoraggio civico
Iniziative
Digital transformation, l’Emilia-Romagna rilancia sulle comunità tematiche
Politiche ue
Fondi Coesione 2021-27: la “capacitazione amministrativa” aiuta a spenderli bene
Finanziamenti
Da BEI e Banca Sella 200 milioni di euro per sostenere l’innovazione di PMI e Mid-cap italiane
Analisi
Politiche di coesione Ue, il bilancio: cosa ci dice la relazione 2024
Politiche UE
Innovazione locale con i fondi di coesione: progetti di successo in Italia

Articoli correlati

Articolo 1 di 4