la guida

Come non cadere nelle fake news: ecco il “pensiero laterale” che ci può salvare

Soprattutto in tempi di guerra e di crisi in generale abbondano le fake news, la disinformazione. E soprattutto in quei tempi fanno danni. In guerra, con una pandemia… La ricetta per difendersi per fortuna è nota e continuamente affinata dagli studi. Eccoli

18 Mar 2022
Barbara Calderini

Legal Specialist - Data Protection Officer

Con l’evolversi degli eventi in Ucraina, è importante prestare particolare attenzione alla verifica delle fonti di informazione.

Il dispiegamento della disinformazione come tattica militare non è certo un’innovazione del XXI secolo. Tuttavia, determinare la credibilità delle notizie è diventata oggi una sfida molto difficile: chiunque può essere fuorviato. Il fiume di notizie misto a propaganda è fortissimo. Per di più, mai come una guerra le fake news hanno conseguenze “pesanti”. Cedervi significa contribuire ai danni dell’inquinamento informativo.

Nell’era della guerra ibrida la disinformazione è sempre più diretta verso un pubblico civile che, sin troppo spesso, non ha le capacità e la motivazione per determinare di cosa fidarsi.

Gli effetti di tanto sono rilevanti: dalla manipolazione del consenso popolare, all’esposizione a violenze di ritorsione; dalla distorsione di informazioni vitali per garantire i bisogni umani, alle potenziali sofferenze psicologiche.

Ciò che è richiesto, per colmare il gap di cultura digitale e porre le basi per la costruzione della prossima generazione di cittadini informati, è niente di meno che un cambiamento del modo in cui viene insegnata l’alfabetizzazione mediatica.

Digital literacy: l’importanza di affinare la capacità di trarre informazioni significative da dati attivando il pensiero critico

In tal senso, sostenere l’apprendimento di un nuovo approccio in grado di sviluppare un digital mindset che permetta a chiunque di agire in modo consapevole all’interno di un perimetro mutevole e infodemico, è sembrata, agli esperti della Stanford Historical Past Schooling Group dello Stanford College, una necessità, oggi più che mai, prioritaria[1].

WHITEPAPER
Le strategie e i tool necessari per la Fabbrica 4.0: scarica la guida 2022
Amministrazione/Finanza/Controllo
Digital Transformation

Ed è per questo che il gruppo di ricerca e sviluppo di Stanford ha recentemente promosso lo studio (finanziato da Google.org, che fa seguito ad altri già pubblicati in precedenza dalla Stanford History Education Group – SHEG) intitolato “Lateral Reading on the Open Internet: A District-Wide Field Study in High School Government Classes”.

L’approfondimento degli analisti di Stanford è stato corroborato da un progetto didattico, culminato in un test di verifica, destinato agli studenti di un distretto scolastico urbano del Midwest degli Stati Uniti, tra cui anche le Lincoln Public Faculties del Nebraska, incentrato sull’insegnamento del metodo noto come Lateral reading and Civic Online Reasoning”: un approccio di verifica della veridicità dei fatti già ampiamente utilizzato dai fact checkers professionisti delle maggiori testate giornalistiche.

Una sorta di euristica “veloce e frugale” volta al miglioramento delle prestazioni di contrasto alla disinformazione e alla valorizzazione delle manifestazioni di cultura digitale e pensiero critico degli utenti.

Non fidarsi delle fonti

L’autore di un sito web potrebbe infatti non esserne realmente l’autore, e i riferimenti che simulano segnali di legittimità potrebbero avere poco a che fare con le affermazioni che ancorano.

Allo stesso modo un dominio dot-org non è necessariamente indice di imparzialità e veridicità.

Imparare ad allocare l’attenzione di cui si nutrono le numerose fonti, in modo consapevole ed efficiente, destreggiandosi tra la sovrabbondanza delle stesse, si rivela fondamentale.

L’informazione consuma attenzione. Quindi l’abbondanza di informazione genera una povertà di attenzione e induce il bisogno di allocare quell’attenzione efficientemente tra le molte fonti di informazione che la possono consumare”. Herbert A. Simon, premio Nobel per l’economia nel 1978.

Le Guide di alfabetizzazione digitale di Stanford e il report “Lateral Reading: Reading Less and Learning More When Evaluating Digital Information

Il pensiero laterale

Utilizzare le strategie di lettura laterale[3] e di “ragionamento civico on line[4]sviluppate dalla Stanford History Education Group – SHEG per verificare le informazioni digitali può, dunque, rivelarsi estremamente utile.

A maggior ragione cominciando ad insegnarne la pratica ai giovani studenti.

Ed è questo l’obiettivo degli studi realizzati dal team di professionisti della Stanford History Education Group – SHEG coordinati da Sam Wineburg, fondatore e direttore esecutivo del dipartimento, impegnato in vari progetti di cultura digitale destinati ai giovani.

Il metodo scientifico di analisi dei contenuti sviluppato da Stanford è, peraltro, disponibile in forma gratuita per tutti quei docenti che fossero interessati ad implementare i corsi di lettura laterale nelle loro istituzioni scolastiche.

Guide pratiche sul contrasto alla disinformazione come il “Curriculum di SHEG Reading Like a Historian”, le analisi contenute nello studio “Beyond the Bubble” e il manuale di Civic Online Reasoning , si rivelano strumenti estremamente vantaggiosi quanto efficaci.

A riprova di ciò, nel 2017 lo Stanford History Education Group ha voluto testare le specifiche capacità di valutazione delle informazioni reperite in rete di tre distinti gruppi di utenti:

  • 10 storici, tutti in possesso di dottorato di ricerca e docenti in cinque diversi college e università della California e dello stato di Washington. Sei maschi; quattro femmine. La loro età variava da 39 a 69 anni;
  • 25 studenti universitari della Stanford University, reclutati utilizzando volantini affissi nel campus di Stanford. Tutti gli studenti erano iscritti al secondo o terzo trimestre del loro primo anno e avevano un’età compresa tra i 18 ei 19 anni;
  • 10 fact checkers professionisti impiegati in note testate giornalistiche. Otto si trovavano a New York o Washington; due basati sulla costa occidentale. Come per gli storici, sei erano maschi e quattro femmine. L’età variava da 23 a 60 anni.

L’analisi si è concentrata sulle strategie utilizzate dai partecipanti per valutare le informazioni online e giungere in tal modo a giudizi di credibilità.

Ai tre gruppi sono stati presentati due articoli provenienti da due siti diversi che trattavano, in modo diametralmente opposto, il tema delle cause del bullismo in ambito scolastico.

I due siti web, all’apparenza, sembravano entrambi autorevoli: il primo era il sito web dell’American College of Peditricians, mentre il secondo quello dell’American Academy of Pediatrics.

Ai partecipanti coinvolti nell’esperimento non erano state fornite indicazioni preventive sulla metodologia di analisi de testi e ogni gruppo ha messo in pratica le proprie attitudini di valutazione e le proprie competenze.

I risultati dello studio hanno confermato come “i fact checker, usando le tattiche alla base della lettura laterale, si siano rivelati più veloci e accurati, mentre storici e studenti sono stati facilmente fuorviati da fonti inaffidabili“.

In pratica i cosiddetti lettori laterali hanno sfruttato fattori chiave e incrociato le relative informazioni, rivelando una migliore comprensione circa l’opportunità di fidarsi dei fatti e dell’analisi dei dati presentati, in modo particolare leggendo “attraverso molti siti collegati piuttosto che scavando in profondità nel solo sito a portata di mano“. Ovvero lettura laterale.

Gli storici invece hanno applicato una metodologia del tipo “lettura verticale” soffermandosi sulle note e i riferimenti presenti nella sezione ABOUT US, in genere collocata in basso alla pagina home del sito, analizzando il contenuto digitale come se fosse meramente stampato e dunque estendendo impropriamente al contesto digitale strategie di lettura tipiche di un altro dominio.

Rimanere su una singola pagina Web e analizzarne attentamente il suo contenuto, prima ancora di aver stabilito se un sito è ciò che dice di essere, è, infatti, un modo tristemente inefficiente per navigare in un territorio digitale insidioso”. Commentano gli analisti del rapporto di Stanford.

Gli studenti, dal canto loro, si sono mostrati molto propensi a delegare a Google la responsabilità nel determinare la credibilità delle informazioni apprese: più un sito era posizionato in alto nei risultati, più veniva considerato attendibile, a prescindere dalle indicazioni contenute negli snippet del motore di ricerca. Ugualmente avrebbero ritenuto prioritario soffermarsi ad analizzare l’autenticità dei siti web basandosi su caratteristiche estetiche come il design grafico o lo specifico logo.

I risultati dello studio “Lateral Reading on the Open Internet: A District-Wide Field Study in High School Government Classesdella Stanford Historical Past Schooling Group

Agli studenti delle Lincoln Public Faculties del Nebraska, a cui erano state insegnate le strategie di valutazione delle informazioni “Lateral reading” (sei lezioni di 1 ora in tre mesi), è stato proposto di valutare in modo indipendente articolo provenienti da fonti web che non si presentano trasparenti quanto allo scopo perseguito e ai propri sostenitori.

Nella loro analisi gli utenti hanno praticato l’euristica della lettura laterale, ovvero, lasciare il sito di partenza dopo una rapida scansione dello stesso e aprire nuove schede del browser in cerca di dati correlati utili a giudicare e confermare la credibilità del sito originale, mettendo in secondo piano loghi e nomi di dominio dall’aspetto ufficiale.

Lo scopo dello studio era dimostrare come le loro strategie di lettura laterale e approcci alla valutazione dei contenuti digitali tipici dei fact checkers avrebbero potuto influenzare in senso positivo gli sforzi educativi.

A tal fine, gli studenti che avevano frequentato il corso nelle classi di trattamento (n = 271) sono stati confrontati con i coetanei (n = 228) nelle classi normali riproducendo una prova del medesimo tenore. L’analisi delle risultanze ottenute ha mostrato come gli studenti nelle classi sperimentali fossero cresciuti in modo significativo nella loro capacità di giudicare la credibilità dei contenuti digitali rispetto agli studenti nelle classi standard: i risultati del test di verifica si sono rivelati infatti estremamente incoraggianti. Dopo solo sei lezioni il grado della capacità di analisi degli studenti formati, anche in termini di tempo impiegato, era sensibilmente migliorato.

Un tale ottimismo è già stato colto dallo stato dell’Illinois che infatti sarà il primo stato in cui le scuole superiori adotteranno il metodo della lettura laterale tra le materie oggetto dei relativi piani di insegnamento.

I vari volti dei contenuti “out of context” del conflitto bellico tra Russia e Ucraina

La creazione e la condivisione involontaria (misinformazione) o deliberata (disinformazione) di informazioni false e non dimostrate si trasmettono più pervasivamente e molto più velocemente della verità[5].

L’ecosistema mediatico assume i contorni di un ambiente in cui la narrazione degli eventi di guerra prende il sopravvento sull’informazione.

I contenuti e la tecnica narrativa prevalgono sulla veridicità dei fatti che descrivono.

Titoli click bait inondano i bollettini televisivi e i feed dei social media mentre un pubblico globale osserva la situazione in rapida evoluzione in tempo reale, non sempre con la dovuta consapevolezza.

Storie come:

  • Ghost of Kyiv[6], il caccia che da solo aveva apparentemente abbattuto diversi aerei militari russi, condivisa dall’account Twitter ufficiale dell’Ucraina e trasmessa dalla principale agenzia di sicurezza del paese, anche sul suo canale ufficiale Telegram,
  • e Snake Island[7], l’ avamposto ucraino nel Mar Nero dove, stando ad una registrazione audio rilasciata da Pravda, un quotidiano ucraino, successivamente verificata da funzionari ucraini, 13 militari di frontiera sarebbero stati uccisi per non essersi arresi al ferreo ultimatum imposto da un’unità navale militare russa,

ne sono esempi concreti.

Altrettanto vale per le varie manifestazioni della disinformazione russa, note come “false flag operations[8]”, letteralmente “operazioni falsa bandiera”, da intendersi come “depistaggio sull’origine di fatti”, per giustificare l’invasione dell’Ucraina.

  • “L’Ucraina ha in programma di attaccare alcuni territori detenuti dai separatisti usando armi chimiche”
  • “L’esercito ucraino si prepara ad attaccare il Donbas”
  • “Le centrali nucleari sono al centro di un complotto statunitense”

Notizie di dubbia provenienza circolate, in modo particolare, su canali anonimi di Telegram e ripetute in dichiarazioni televisive dagli stessi funzionari russi, o viceversa, annunciate dai media statali del Cremlino e poi condivise sui canali social, sono state al centro dell’ultimo report di approfondimento sulla disinformazione russa redatto dalla European Expert Association, il gruppo di ricerca incentrato sulla sicurezza in Ucraina, insieme al team dedicato di tecnologi, analisti, ricercatori, sostenitori ed esperti delle tematiche collegate alla disinformazione chiamato Reset Tech, di cui fa parte anche Shoshana Zuboff.

I maggiori canali della circolazione dei contenuti “out of context”: Telegram, Twitter e Tik Tok

Stando ai resoconti di un recente documento di analisi stilato da First Draft, la coalizione di esperti no-profit che indaga sulla disinformazione online, la maggior parte delle affermazioni non verificate sul conflitto bellico attualmente in circolazione hanno coinvolto le piattaforme digitali Telegram e Twitter, oltre a TikTok, l’app cinese di proprietà di ByteDance con oltre 1 miliardo di utenti, nota soprattutto per i video brevi virali, che è appunto diventata una delle fonti infodemiche più prolifiche in fatto di notizie di guerra.

Un palcoscenico che con facilità, grazie anche alla profilazione algoritmica alimentata dalla pervasiva sorveglianza digitale e la riluttanza delle piattaforme a prevenire miliardi di visualizzazioni su pagine di disinformazione, così come la scarsa attendibilità delle tecniche di moderazione dei contenuti a sostegno della verità del messaggio, diviene focolaio di estremismo e di distorsione cognitiva, e in cui eventi critici particolari, con poco sforzo, possono essere plasmati da frammenti video e immagini, asserviti agli interessi di parte, dell’ audience o della partigianeria politica.

Abbie Richards, un’esperta della disinformazione condivisa sui canali TikTok, ha indicato come proprio l’algoritmo della piattaforma e le funzionalità premianti pensate per i creatori di contenuti (regali virtuali, come rose digitali e panda, da convertire in diamanti, la valuta TikTok, che può generare denaro reale e commissioni a favore di TikTok), oltre alle modalità operative degli strumenti di editing a disposizione degli utenti, fungano essi stessi da fattori abilitanti della diffusione dei messaggi distorti.

E’ il caso di un video contenuto in un post contraddistinto dall’hashtag #Ucraina che ha ripreso alcuni soldati in tuta militare nell’atto di salutare le proprie donne visibilmente emozionate.

Il video è stato visto 7,3 milioni di volte ma in pochi si sono accorti che lo stesso riproduceva le scene di un film ucraino del 2017: La guerra delle chimere.

Esther Chan, Bureau Editor di First Draft in Australia, attraverso il proprio account Twitter, ha reso una dettagliata ricostruzione dei contenuti “out of context”, ovvero fuorvianti, attualmente condivisi on line.

Esempi di disinformazione presenti su Twitter sono stati resi noti anche dai fact checkers della stessa CNN: screenshot artatamente costruiti che in realtà si sono rivelate invenzioni non riconducibili alla nota testata americana.

Altri contenuti fake sono stati “smascherati” dai fact checkers di PolitiFact, Snopes, USA Today, Reuters.

La tattiche di condivisione fuorvianti attuate dai disinformatori intenzionali sono state oggetto di approfondimento altresì da parte del team Technology and Social Change dello Shorenstein Center di Harvard, che ha appunto evidenziato come uno dei modi più efficaci per fare disinformazione e favorire l’effetto virale del contenuto fasullo è senza dubbio quello dei “recontextualized media ” o “crono-bufale”: ovvero immagini, video o clip audio tolti dal loro contesto originale e riformulati per uno scopo o una cornice narrativa completamente diversi.

Proprio la ricontestualizzazione dei media è una delle caratteristiche principali di TikTok che, infatti, consente agli utenti di aggiungere con facilità audio o un effetto sonoro diversi ai propri video.

Ciò malgrado la società di Pechino abbia già preannunciato l’implementazione di ulteriori presidi di moderazione e contrasto alla disinformazione, come le etichette destinate ai contenuti di alcuni media controllati dallo stato di Vladimir Putin e informative specifiche per determinati video e livestream, se non addirittura la sospensione pura e semplice: a maggior ragione dopo l’entrata in vigore della legge russa sulle “notizie false” recentemente implementata dal Paese, che introduce misure penali e pesanti multe per i responsabili della diffusione di notizie ritenute inattendibili che mirano a screditare l’esercito russo o si schierano a favore delle sanzioni contro la Russia.

Alla luce della nuova legge russa sulle “notizie false”, non abbiamo altra scelta che sospendere lo streaming live e i nuovi contenuti sul nostro servizio video mentre esaminiamo le implicazioni sulla sicurezza di questa legge“, annuncia TikTok su Twitter, sottolineando che la messaggistica dell’app non sarà interrotta.

Conclusioni

Il potere delle fake news avanza a ritmi incessanti.

L’influenza indebita che ad esso si accompagna coglie nel segno e conferma quanto la guerra dell’informazione sia a tutti gli effetti una componente cruciale del conflitto generale.

Seminare dissenso, minare l’ordine sociale, manipolare la crisi bellica, screditare le istituzioni nemiche e ledere la reputazione delle organizzazioni umanitarie; sono tutte tattiche collaudate degli ambienti di collisione, incubatori fertili della disinformazione, in cui spazi e intermediari digitali di propagazione della disinformazione e di notizie non verificate contribuiscono alla creazione e allo sviluppo di potenti camere d’eco impostate sul pregiudizio e la condivisione acritica di rapporti capziosi, impermeabili alla moderazione dei contenuti e ai blandi rimedi giudiziari dei vari ordinamenti.

La fame umana di pettegolezzi superficiali, di bugie spiacevoli e di falsità rassicuranti, è sempre stata pantagruelica. La differenza è che oggi, per la prima volta nella storia umana, l’infosfera la soddisfa con scorte senza fondo di spazzatura semantica, trasformando le caverne di Bacon e Platone in stanze riverberanti, che chiamiamo bolle”. Luciano Floridi[2]

Affinare la capacità di utilizzo della rete e delle tecnologie dell’informazione per accedere, gestire, integrare e valutare le informazioni, a partire da una vasta gamma di fonti accessibili, tramite svariati dispositivi tecnologici, si rivela estremamente importante, e comprendere il funzionamento dei motori di ricerca come delle piattaforme social rientra sicuramente tra questi.

“Una falsa notizia – scriveva nel 1921 lo storico Marc Bloch – nasce sempre da rappresentazioni collettive che preesistono alla sua nascita; essa solo apparentemente è fortuita o, più precisamente, tutto ciò che in essa vi è di fortuito è l’incidente iniziale, assolutamente insignificante, che fa scattare il lavoro dell’immaginazione; ma questa messa in moto ha luogo soltanto perché le immaginazioni sono già preparate e in silenzioso fermento”.

In altre parole, la nostra percezione e la nostra fiducia sono con troppa facilità orientate dalle emozioni piuttosto che dalle prove.

Terreno quanto mai fertile per i “manipolatori” dell’informazione, ma anche particolarmente insidioso per i semplici “ingenui” del web, a maggior ragione in momenti di forte crisi come quello attuale.

Gli effetti dannosi della mistificazione sulla narrativa relativa al conflitto bellico possono essere alquanto gravi e i quadri giuridici, come il diritto internazionale dei diritti umani o il diritto penale internazionale, da soli non bastano a limitarne l’impatto.

La guerra alla disinformazione è una battaglia per la democrazia; è una lotta trasversale e un investimento culturale a lungo termine, da implementare a livello formativo a cominciare dalle scuole, teso allo sviluppo negli individui di approcci critici, ma non scettici, verso le informazioni che si ricevono.

È una sfida che nel gravoso contesto in essere, epidemiologico emergenziale prima e, oggi, anche bellico, va gestita abilmente, combinando il rigore della psicologia scientifica con la portata e la scala tecnologica di big data.

Il diritto fondamentale a una corretta informazione è presidio di libertà e presupposto essenziale per poter affinare i diritti connessi alla cittadinanza democratica.

Note

  1. I docenti di Stanford non sono i soli ad essersi cimentati nella redazione di guide pratiche di “lettura laterale” volte al discernimento della disinformazione. Tra queste si ricordano: “Web Literacy for Student Fact-Checkers … …and other people who care about facts” di Mike A, Caulfield, licensed under a Creative Commons Attribution 4.0 International License; “Ecco come superare in astuzia le notizie false nel tuo feed di Facebook”, promossa dalla CNN (Willingham, 2016); “La guida per il controllo dei fatti per rilevare le notizie false” (Kessler, 2016) del Washington Post; “Come riconoscere una notizia falsa” (Robins-Early, 2016) dell’ Huffington Post; oltre alle varie iniziative promosse dai campus dei giganti della tecnologia della Silicon Valley, Google, Facebook e Twitter, spesso in partnership con i vari governi.
  2. Luciano Floridi, Il verde e il blu – Idee ingenue per migliorare la politica – 2020 – Raffaello Cortina Editore
  3. La “lettura laterale” è una strategia per indagare chi c’è dietro una fonte online sconosciuta lasciando la pagina Web e aprendo una nuova scheda del browser per vedere cosa dicono i siti Web attendibili sulla fonte sconosciuta.Per una spiegazione dettagliata su come funziona la lettura laterale, si consiglia il seguente video https://youtu.be/AfnptH3XXU , oltre alla lettura dei seguenti approfondimenti e studi Wineburg, Sam e McGrew, Sarah, Lateral Reading: Reading Less and Learning More When Evaluating Digital Information (6 ottobre 2017). Documento di lavoro del gruppo Stanford History Education n. 2017-A1 . Disponibile su SSRN: https://ssrn.com/abstract=3048994 o http://dx.doi.org/10.2139/ssrn.3048994
  4. Il ragionamento civico online insegna pratiche di lettura diverse da quelle sviluppate per leggere le tradizionali fonti di stampa.
  5. Secondo un recente studio del MIT, le notizie false hanno il 70% in più di probabilità di essere twittate rispetto alle storie vere, con la verità che viaggia sei volte più lentamente della menzogna. Per approfondimenti si rimanda a https://www.agendadigitale.eu/cultura-digitale/tutte-le-fake-news-sul-coronavirus-come-si-diffondono-e-si-combattono/ e https://www.media.mit.edu/articles/how-lies-spread-online/
  6. Il video Ghost of Kyiv ha avuto più di 9,3 milioni di visualizzazioni su Twitter ed è stato menzionato in migliaia di gruppi di Facebook raggiungendo fino a 717 milioni di follower. Su YouTube i video che promuovono il combattente ucraino hanno raccolto 6,5 milioni di visualizzazioni, mentre i video TikTok con l’hashtag #ghostofkyiv hanno raggiunto i 200 milioni di visualizzazioni. Pare che uno dei primi video che è diventato virale, incluso nel montaggio condiviso dall’account Twitter ufficiale dell’Ucraina, è stato il rendering al computer di un simulatore di volo da combattimento originariamente caricato da un utente di YouTube con appena 3.000 iscritti. E una foto che presumibilmente conferma l’ esistenza del combattente , condivisa da un ex presidente dell’Ucraina, Petro Poroshenko, proveniva da un post su Twitter del 2019 del ministero della Difesa ucraino. Per maggiori informazioni https://www.nytimes.com/2022/03/03/technology/ukraine-war-misinfo.html
  7. L’audio dello scambio è diventato virale sui social media e la clip pubblicata il 24 febbraio dalla Pravda ha ricevuto oltre 3,5 milioni di visualizzazioni su YouTube. Pochi giorni dopo, i funzionari ucraini hanno confermato in un post su Facebook che gli uomini erano ancora vivi, fatti prigionieri dalle forze russe. Per maggiori informazioni https://www.nytimes.com/2022/03/03/technology/ukraine-war-misinfo.html
  8. Depistaggio sull’autore di un fatto. Il termine fu usato per la prima volta nel XVI secolo per descrivere come i pirati sventolassero la bandiera di una nazione amica per ingannare le navi mercantili permettendo loro di avvicinarsi. Gli attacchi false flag hanno una storia lunga e ben collaudata: dai resoconti sull’ invasione tedesca della Polonia nel 1939 , agli attacchi lungo il confine del Kashmir nel 2020 ad opera di India e Pakistan, passando per lo scoppio della guerra russo-finlandese nel 1939, l’incidente nel Golfo del Tonchino nel 1964 e i “Piccoli uomini verdi” impiegati nel contesto dell’annessione della Crimea alla Russia nel 2014.

WHITEPAPER
Industria 5.0: come raggiungere obiettivi sociali nel rispetto delle persone e del pianeta?
Digital Transformation
@RIPRODUZIONE RISERVATA

Articolo 1 di 4