Nell’epoca della reputation economy, ognuno di noi è abilitato ad agire nella società in base al “credito reputazionale” di cui dispone. Questo credito viene utilizzato per decidere se siamo degni di fiducia e credibilità in ogni sfera: professionale, finanziaria, di business, relazionale e molte altre.
Il peso della web reputation sulla nostra vita quotidiana
Ad esempio:
- le banche analizzano la web reputation prima di decidere se concedere l’apertura di un conto, un prestito e fare affari con un soggetto giuridico o una persona fisica;
- più del 44% dei selezionatori decide di non chiamare a colloquio un candidato per le informazioni presenti online su Google e social media (Ricerca Adecco 2019);
- oltre l’80 % consumatori consulta internet per raccogliere info su prodotto o servizio prima di acquistare e più dell’85% considera una recensione online come un consiglio di un amico indipendentemente se sia vera o no, e se negativa, causando un danno sul business pari alla perdita dai 9 ai 15 clienti potenziali ogni giorno.
Lo strumento per accedere alle informazioni necessarie per percepire il credito reputazionale ad oggi è semplice e gratuito. Internet con i motori di ricerca come Google.
Questo strumento è stato progettato per essere fruito dagli essere umani, per fornire risposte efficaci e pertinenti e per questo durante gli anni ha acquisito la nostra fiducia ed una certa autorevolezza.
Tuttavia i principi che ci sono alla base di questi risultati di ricerca, non garantiscano informazioni vere, verificate e sicure; il paradosso è che, ad esempio le risposte che fornisce Google vengono percepite come tali per una serie di bias cognitivi dell’essere umano ed è qui che si perde sempre di più la cognizione di cosa è reale e cosa è verosimile.
Cosa cambia con l’avvento dell’intelligenza artificiale
Per molti anni, le persone hanno preso decisioni informate attraverso ricerche online su motori di ricerca e social media, affidandosi notevolmente agli algoritmi di queste piattaforme (come OTA, comparatori di prezzo e altri). Tuttavia, essi hanno sempre mantenuto un ruolo attivo nella ricerca e selezione delle informazioni.
Cosa accadrà adesso? Con l’avvento dell’intelligenza artificiale (AI), questo processo è destinato a cambiare radicalmente. L’AI assumerà un ruolo sempre più centrale, non solo nell’analisi delle fonti informative, ma anche nel determinare le scelte attraverso la selezione delle informazioni più rilevanti. Ad esempio, oggi circa il 70% degli utenti di Netflix lascia che l’algoritmo suggerisca cosa guardare successivamente, dimostrando quanto si sia inclini a fidarsi delle decisioni automatizzate.
Tuttavia, i bias cognitivi che influenzano le nostre decisioni, si intrecceranno inevitabilmente con i bias intrinseci delle intelligenze artificiali.
Si pensi al caso emblematico di Gemini che ha suggerito colla sulla pizza, un esempio significativo di come gli algoritmi non siano infallibili ed anzi la partecipazione attiva dell’essere umano è ancora importantissimo.
Non è la prima volta che Google si trova a fronteggiare un’ondata di critiche di tale entità. Un episodio analogo si verificò durante la presentazione di Bard, la versione iniziale di Gemini.
In quell’occasione, il chatbot commise un errore riguardante il telescopio spaziale James Webb, un passo falso che si tradusse in una perdita del 7% nel valore di borsa per Google.
Questi errori, seppur isolati, destano preoccupazioni riguardo alla crescente autorevolezza che viene attribuita alla tecnologia ed in questo caso all’intelligenza artificiale, come se fosse perfetta e migliore dell’uomo anche nelle ricerche quotidiane ma come possiamo verificare questa performance?.
Questo scenario solleva diverse questioni controverse, tra cui monopolio, concorrenza, discriminazione e l’eccessiva dipendenza da questi sistemi per le decisioni quotidiane.
Il vero nodo è che la reputazione online di ciascuno di noi è preziosissima e delicata ma il rischio è che non sarà più filtrata solo dal cervello umano, ma anche dal giudizio artificiale influenzato da bias e possibili allucinazioni.
Ciò potrebbe ulteriormente distorcere la realtà percepita, spesso senza che l’utente ne sia veramente consapevole, rendendoci così più manipolabili.
Questo è già visibile su piattaforme social dove le fake news, spesso costruite in maniera più coinvolgente e logica, si propagano rapidamente e vengono accettate e ricondivise dagli utenti senza troppe verifiche.
Come possiamo allora assicurare la correttezza dell’analisi fatta dall’AI? Come può un’azienda o un individuo prevenire un ingiusto giudizio da parte di un’intelligenza artificiale? E come si può intervenire se una AI rappresenta erroneamente un soggetto giuridico o fisico a sua insaputa?.
Grazie a questo approfondimento, esploreremo alcune soluzioni e analizzeremo il tema per comprenderne meglio le dinamiche.
La fruizione delle informazioni nella reputation economy al tempo dell’AI
Stiamo entrando in un’era di trasformazione epocale della reputation economy, dove la qualità della nostra vita e la nostra libertà dipenderanno sempre più da come le informazioni vengono fruite ed elaborate attorno a noi.
Nell’era dell’informazione digitale, la reputation economy ha acquisito un ruolo centrale nel determinare il valore di individui e organizzazioni.
Tuttavia, questa crescente dipendenza dalla tecnologia porta con sé una serie di sfide cruciali.
In particolare, emerge il problema della percezione filtrata e distorta della realtà. Infatti, le decisioni prese dall’AI sono influenzate da un doppio bias: quello intrinseco dell’algoritmo e quello ereditato dai dati umani che utilizza.
Si pensi al caso di algoritmi di recruitment che penalizzano donne e minoranze a causa di dati storicamente sbilanciati. Questo doppio livello di distorsione rende gli individui più vulnerabili alla manipolazione e alla disinformazione.
Il dilemma fondamentale, quindi, riguarda come evitare di diventare vittime di queste distorsioni e soprattutto degli algoritmi.
Esempi concreti di reputation economy
Analizziamo cinque esempi concreti di come la reputation economy influisce direttamente sulla nostra realtà.
- Il caso dell’imprenditore Mario Rossi: quando viene indagato per presunti reati, i media dipingono una narrativa negativa che rapidamente compromette la sua immagine pubblica. Anche dopo essere stato assolto, la sua reputazione online rimane segnata da articoli negativi. Oltre ha subire danni fortissimi di credibilità ed autorevolezza perenni, l’imprenditore avrà un nuovo problema ovvero le banche lo etichetteranno come rischioso nei loro database reputazionali, rendendo difficile per lui persino aprire un conto corrente. Un simile impatto dimostra come la reputation economy non solo influisce sull’immagine, ma anche sulle opportunità economiche e finanziarie di un individuo il quale negli anni ha subito una perdita di credibilità ed attrattività di opportunità inestimabile.
- Chiara Ferragni e la perdita di contratti: l’imprenditrice digitale ed influencer Chiara Ferragni ha sperimentato una perdita significativa di affidabilità e contratti a seguito di un episodio che ha messo in discussione la sua immagine pubblica. La sua reputazione, precedentemente solida, subisce un colpo che allontana le aziende interessate alla sua influencer marketing, colpendo il successo commerciale delle sue aziende.
- United Airlines e l’incidente di overbooking: nel 2017, un incidente di overbooking su un volo di United Airlines ha portato a una massiccia cattiva stampa e proteste pubbliche, causando una diminuzione di circa il 4% nel valore delle azioni dell’azienda. Un singolo evento negativo può avere ripercussioni immediate e tangibili sul valore di mercato e sulla fiducia dei consumatori verso una compagnia.
- LinkedIn e la ricerca di lavoro: nel mercato del lavoro odierno, un profilo LinkedIn ben curato può fare la differenza tra essere selezionati o ignorati. Vengono assunti 6 candidati al minuto grazie a Linkedin e più del 70% dei selezionatori dichiara di consultare i profili social del candidato prima di chiamarlo a colloquio.
- Il potere di Elon Musk sui mercati: l’innovatore è noto per i suoi tweet influenti, che possono causare oscillazioni significative nei mercati finanziari. Un singolo tweet poco ponderato di Musk può far bruciare milioni di dollari nel valore delle azioni della sua azienda o di altre criptovalute. Tutto è strettamente connesso come le dinamiche economiche e di mercato con una semplice esternazione su un canale social.
- La reputazione, infatti, è un asset prezioso, difficile da costruire e facile da perdere, ma con un impatto profondo e duraturo sui rapporti personali e professionali.
Quali informazioni influenzano la web reputation
Nella reputation economy, la percezione della realtà è fortemente condizionata dalle informazioni che si trovano online, su social media, motori di ricerca e piattaforme simili. È quindi fondamentale comprendere che tipo di informazioni possono essere trovate online e come queste possano influenzare il giudizio e il comportamento degli utenti; questo perchè gli algoritmi dei motori di ricerca e delle intelligenze artificiali useranno queste informazioni per definirci con o senza il nostro permesso o consapevolezza.
- Fake news: le notizie false, diffuse intenzionalmente per ingannare, possono avere conseguenze devastanti. Un esempio emblematico potrebbe essere una fake news che dichiara la bancarotta di un’azienda, provocando panico tra investitori e clienti e causando un calo drastico nel valore delle azioni. Uno studio del MIT ha rivelato che le fake news si diffondono sei volte più velocemente delle notizie vere.
- Propaganda: l’uso di informazioni distorte o parziali per promuovere una particolare causa è ancora molto frequente. Nelle campagne politiche, ad esempio, si utilizzano spesso dati selettivi per presentare un candidato come infallibile, manipolando l’opinione pubblica. Un esempio recente è stato l’uso di dati fuorvianti durante le elezioni presidenziali negli Stati Uniti nel 2020, che ha polarizzato ulteriormente l’elettorato.
- Informazioni obsolete ma dannose: anche informazioni ormai datate possono continuare a influenzare negativamente la percezione del pubblico. Un articolo vecchio che descrive un’azienda coinvolta in pratiche non etiche può lasciare un’impronta duratura, portando ancora danni all’immagine dell’azienda nonostante la questione sia stata risolta. Anche delle recensioni online molto vecchie non più attendibili possono diventare degli elementi non più pertinenti per valutare la qualità di un’azienda, tuttavia graveranno lì per sempre.
- Supposizioni e allusioni: supposizioni infondate e allusioni mirate, protette dal diritto di cronaca e di informazione, possono denigrare senza prove concrete. Un post insinuante sui social media che suggerisce un coinvolgimento di un imprenditore in attività illegali può seriamente danneggiare la sua reputazione. Queste allusioni possono avere un impatto significativo, poiché il 59% degli utenti di social media considera “abbastanza affidabili” le informazioni trovate sui social.
- Diffamazioni: le dichiarazioni false che danneggiano la reputazione di una persona sono una minaccia reale. Un blog che accusa ingiustamente un professionista di frode può rovinarne la carriera e la credibilità. I casi di diffamazione sono talmente gravi che, secondo il Center for Internet and Society di Stanford, il 72% delle imprese coinvolte in dispute legali riferiscono un calo di fiducia nei confronti dei loro marchi durante il contenzioso. Anche le recensioni false sono molto comuni e non è facile neutralizzarle.
- Contenuti di odio: gli “hater” spesso pubblicano contenuti offensivi con l’intento di danneggiare altri. Il web pullula di recensioni di sabotatori con profili anonimi; commenti denigratori su un video YouTube possono influenzare negativamente la percezione pubblica di un influencer, causando una perdita di follower e contratti con sponsor. Secondo una ricerca di Ditch the Label, il 41% dei giovani ha subito cyberbullismo, evidenziando quanto siano diffuse le pratiche di odio online.
- Divulgazione di informazioni private senza consenso: la diffusione non autorizzata di informazioni private può avere gravi conseguenze. La pubblicazione online di foto o video private di un politico o un privato, ad esempio, può compromettere la sua carriera e vita personale. Questo tipo di attacco è così diffuso che il 50% degli adulti americani dichiara di essere preoccupato per la propria privacy online.
- Diffusione fraudolenta di deepfake: contenuti video e fotomontaggi creati con l’intelligenza artificiale, creati per convincere chi guarda di osservare dei contenuti reali ma si tratta di una pericolosissima falsificazione. Ad esempio, esistono vari siti pornografici che utilizzano i volti di attori, celebrità ma anche privati, per simulare che stiano facendo un film di adult compromettendo la loro immagine.
- Informazioni reali: informazioni ufficiali pubblicate su propri mezzi di comunicazione come profili social e siti web ma anche interviste su testate giornalistiche ed altri media. Queste informazioni fanno fatica a volte a impattare poichè il pericolo di essere vittime delle news false o poco pertinenti è alto se non si gestisce a livello professionale la propria reputazione digitale.
Chi naviga online spesso ha un’attenzione molto superficiale, mediamente di soli 3 secondi. In questo breve lasso di tempo, non è l’informazione più vera e seria a prevalere, ma quella che sfrutta meglio i bias cognitivi, come pregiudizi e stereotipi ed in genere le informazioni malevoli sono generate proprio per sfruttarli tutti o quasi.
Queste informazioni influiscono sull’interlocutore, orientando la sua percezione e decisioni in modo sottile ma potente.
La capacità di discernere tra queste diverse tipologie di informazioni è cruciale per evitare di cadere vittima di manipolazioni e mantenere un giudizio equilibrato nella reputation economy.
Tuttavia, la maggior parte delle volte, questo discernimento è tutt’altro che semplice.
AI: distinguere il vero dal verosimile nella reputation economy
Con l’avvento dell’intelligenza artificiale, il fenomeno dei contenuti falsi ha raggiunto nuove vette di sofisticazione, rendendo la reputation economy una pentola sempre più bollente nella quale risulta difficile nuotare per distinguere la verità.
La capacità dell’AI di creare deepfake—video, immagini e voci clonati in modo incredibilmente realistico—ha trasformato radicalmente il panorama delle informazioni, complicando ulteriormente il compito di fare scelte corrette e pertinenti basate sulla realtà.
La minaccia deepfake
I deepfake rappresentano una delle minacce più insidiose alla reputazione.
Questi contenuti possono riprodurre fedelmente le sembianze e le voci di persone reali, creando video o registrazioni audio che sembrano autentici ma che in realtà sono completamente falsi.
Ad esempio, un video deepfake può mostrare un politico che pronuncia discorsi incendiari o compromettenti che non ha mai effettivamente pronunciato, o un CEO che ammette pratiche aziendali scorrette, danneggiando irreparabilmente la loro reputazione.
Nel 2019, una truffa basata su un deepfake vocale ha portato a una perdita di $243,000 per una compagnia energetica britannica, illustrando il potenziale danno economico di questi contenuti falsificati.
Distinguere un video falso da uno vero, o una notizia inventata dalla realtà, diventa sempre più difficile con l’avanzare della tecnologia AI. Anche gli esperti spesso faticano a riconoscere le manipolazioni, il che rende la situazione ancora più complessa per il pubblico generale.
Metodi per riconoscere un deepfake
Alcuni metodi per cercare di distinguere i contenuti falsi includono:
- Verifica delle fonti: controllare la credibilità delle fonti che pubblicano l’informazione. Le notizie provenienti da fonti riconosciute e autorevoli sono generalmente più affidabili.
- Analisi dei dettagli: osservare attentamente i dettagli nel contenuto, come incoerenze visive nei video o anomalie nel tono della voce.
- Utilizzo di strumenti di verifica: sfruttare strumenti e software sviluppati appositamente per rilevare deepfake e contenuti manipolati.
- Consultazione di esperti: rivolgersi a esperti di media e tecnologie digitali per una valutazione professionale dei contenuti sospetti.
- Scetticismo: prima di credere a qualsiasi notizia è bene verificare altre ipotesi e fonti ed attendere tutto il tempo necessario, prima di cedere e credere a quello che si dice online. Credendo nel principio che la verità sta sempre nel mezzo e la realtà non è bianco o nero.
Nonostante tutti questi controlli è ancora possibile cadere nel tranello delle fake news e fake content e lo sarà sempre di più.
Esempi di come l’utilizzo del fake ha impattato nella reputation economy
Ecco come i fake sono stati in grado di influenzare l’opinione pubblica.
- Durante la campagna elettorale americana del 2016, sono stati utilizzati profili social bot finti su Twitter per orientare l’opinione pubblica a favore di uno specifico candidato. Allo stesso modo, Cambridge Analytica ha utilizzato dati personali per fare propaganda mirata su Facebook e altri social media, influenzando non solo le elezioni americane, ma anche il referendum sulla Brexit.
- Durante la guerra tra Russia e Ucraina, le fake news sono state utilizzate per screditare una fazione o l’altra. Ad esempio, sono stati diffusi video manipolati e notizie false per creare confusione e alimentare il conflitto, influenzando l’opinione pubblica internazionale.
- Le truffe e i furti basati su contenuti falsi generati dall’AI sono un’altra preoccupazione crescente. Ad esempio, ci sono stati casi in cui voci clonate sono state utilizzate per convincere le persone ad aprire la porta di casa a estranei o a fornire dati personali sensibili, portando a gravi conseguenze finanziarie e personali.
Chi naviga online spesso crede a quello che vede spesso per i seguenti bias cognitivi dell’essere umano: il pregiudizio, lo stereotipo e l’autorevolezza percepita (e non reale) della fonte.
Queste informazioni manipolano l’interlocutore, orientando la sua percezione e le sue decisioni in modo sottile ma potente.
Per questo è utile notare che la potenza dell’AI sta trasformando la reputation economy in modi prepotenti e complessi, aumentando il rischio di manipolazioni e false percezioni.
Per navigare con successo in questo ambiente, è essenziale sviluppare una mentalità critica e utilizzare tutti gli strumenti disponibili per distinguere il vero dal falso, proteggendo così la propria reputazione e quella degli altri.
Metodi di ricerca online: essere umano vs intelligenza artificiale
Nel panorama moderno, ci sono 2 metodi principali per fare ricerche online e prendere decisioni:
- navigare personalmente su motori di ricerca e social media
- delegare completamente la ricerca e selezione delle fonti all’AI.
Entrambi i metodi presentano significative differenze tecniche e implicazioni sul ruolo attivo dell’essere umano nel processo decisionale.
Navigazione personale online, la più comune per adesso
Quando un individuo decide di cercare informazioni personalmente, segue vari step:
Inserimento della query: l’utente inserisce manualmente la query nei motori di ricerca come Google.
Selezione delle fonti: l’utente esamina i risultati della ricerca, scegliendo le fonti che ritiene più pertinenti e affidabili.
Confronto delle informazioni: l’utente legge e confronta diverse fonti, valutando la credibilità delle informazioni.
Verifica e confutazione: l’utente verifica le informazioni trovate confrontandole con altre fonti e, se necessario, cerca ulteriori dati per confutarle o confermarle.
In questo caso, l’essere umano è ancora una parte attiva del processo. Naviga personalmente, seleziona e valuta le fonti, mantenendo il controllo su quali informazioni considera affidabili e pertinenti attraverso i propri bias e preferenze.
Interpellare l’intelligenza artificiale
Quando si delega la ricerca all’AI, il processo è significativamente diverso:
- Inserimento della query: l’utente inserisce una domanda o una richiesta direttamente nell’AI (come ad esempio ChatGPT o Gemini).
- Elaborazione e risposta: l’ai elabora la query, cercando informazioni attraverso i suoi algoritmi e fornendo una risposta.
- Selezione delle fonti: l’ai seleziona automaticamente le fonti e le informazioni da fornire all’utente, senza intervento umano.
- Presentazione della risposta: l’AI presenta la risposta all’utente, che riceve le informazioni senza conoscere i dettagli del processo di selezione.
In questo caso, l’essere umano delega completamente tutto il processo di ricerca e selezione delle fonti all’AI, spesso non conoscendo la provenienza delle informazioni e quanto siano autorevoli o affidabili e condizionate dal bias dell’AI, anche perché spesso estrapolate dal contesto.
Differenze e implicazioni
Nel primo metodo, l’essere umano è responsabile delle informazioni che decide di usare.
Questo comporta un maggiore controllo e una capacità critica di selezionare e confutare le fonti.
Nel secondo metodo, l’utente subisce una tecnologia che appare trascendentalmente autorevole, fidandosi ciecamente delle risposte dell’AI.
Il rischio principale è che, non sapendo quali ragionamenti l’AI ha fatto e non avendo un metodo per controllare se quello che l’AI dice o mostra come soluzione sia la migliore, pertinente e attendibile, ci affidiamo a una percezione della realtà che è già stata filtrata dai bias e dalle potenziali allucinazioni dell’AI. A questo si aggiungono i nostri bias personali, creando un doppio strato di interpretazione della realtà che ci allontana sempre di più dalla verità delle cose.
Il rischio di essere manipolati a nostra insaputa
Delegare completamente la ricerca all’AI può rendere la percezione della realtà ancora più distorta e manipolabile, poiché incorpora sia i bias algoritmici dell’intelligenza artificiale sia quelli umani. Questo ci rende più vulnerabili alla manipolazione, riducendo la nostra capacità di prendere decisioni informate e consapevoli, di avere un pensiero critico e di sviluppare processi logici e creativi rispetto ai problemi da risolvere.
Non solo, l’AI rappresenta un modo di ragionare che potrebbe non rispecchiare il nostro personale stile di pensiero e di identità; al contrario, può portare a un’omologazione del pensiero umano contrastando il pensiero divergente.
In un mondo in cui la reputation economy gioca un ruolo cruciale, è fondamentale mantenere un ruolo attivo nel processo di ricerca e valutazione delle informazioni per evitare di cadere vittima di manipolazioni e disinformazioni e perdere completamente il contatto con la realtà.
La capacità di discernimento e di analisi critica resta un baluardo imprescindibile per navigare con successo nel mare tempestoso della reputation economy.
AI come strumento di ricerca della migliore soluzione commerciale: quali gli aspetti critici
L’implementazione dell’intelligenza artificiale come strumento di ricerca per le migliori soluzioni commerciali porta con sé una serie di aspetti critici che devono essere attentamente gestiti per evitare conseguenze negative.
Tra questi, spiccano le problematiche relative al monopolio, alla concorrenza, alla discriminazione e all’eccessiva dipendenza da questi sistemi per le decisioni quotidiane e importanti della vita.
Monopolio e concorrenza
Un primo aspetto critico riguarda il rischio di monopolio. Le grandi aziende tecnologiche che sviluppano e controllano i sistemi di AI possono accumulare un potere enorme, influenzando pesantemente il mercato.
Questo può limitare la concorrenza, poiché le piccole e medie imprese potrebbero non avere le risorse necessarie per sviluppare o accedere a tecnologie AI avanzate.
Inoltre, i sistemi di AI potrebbero favorire i prodotti e i servizi delle aziende che li hanno sviluppati, creando un circolo vizioso che rafforza ulteriormente il monopolio.
Ad esempio, un’analisi del Financial Times ha rivelato come il 70% delle risorse in tecnologie AI sia concentrato nelle mani di pochi colossi tech, creando barriere significative per i nuovi entranti nel mercato.
Discriminazione
L’AI può perpetuare e amplificare forme di discriminazione esistenti.
Gli algoritmi di AI sono addestrati su grandi quantità di dati che riflettono i pregiudizi e le discriminazioni presenti nella società.
Questo può portare a decisioni discriminatorie in settori come l’occupazione, il credito e l’accesso ai servizi.
Ad esempio, un sistema di AI utilizzato per selezionare candidati per un lavoro potrebbe escludere sistematicamente determinate categorie di persone, basandosi su dati storici di assunzione che riflettono pregiudizi di genere, razza o età.
Uno studio dell’Università di Stanford ha mostrato come alcuni algoritmi di selezione preferiscano candidati maschi bianchi, esacerbando le disuguaglianze già presenti nel mercato del lavoro.
Dipendenza e autonomia
Un’altra questione rilevante è l’eccessiva dipendenza dalle soluzioni AI per le decisioni quotidiane e importanti della vita.
Affidarsi troppo a questi sistemi può ridurre la nostra autonomia decisionale e la capacità di pensiero critico.
Le persone potrebbero iniziare a fare affidamento esclusivamente sui consigli dell’AI senza mettere in discussione le sue raccomandazioni, perdendo la capacità di valutare autonomamente le situazioni.
La fiducia cieca nelle risposte dell’AI può portarci a un punto in cui, secondo uno studio di McKinsey, il 60% delle decisioni aziendali viene ormai influenzata dai sistemi intelligenti, riducendo la centralità del giudizio umano facendo diventare l’AI un sistema autorevole e l’essere umano non più credibile, un rudimentale subordinato.
Dipendenza cognitiva ed emotiva
Un rischio emergente è lo sviluppo di una dipendenza cognitiva ed emotiva eccessiva nei confronti dell’AI. Quello che inizialmente sembra essere una comodità può trasformarsi in un problema psicologico, minando la propria autostima e riducendo la capacità di sviluppare il proprio pensiero critico. Questo è ancora più vero nei minori di età che sono ancora nella fase di formazione della propria identità ed autostima.
L’abitudine di delegare sempre più decisioni all’AI può portare a una situazione in cui le persone non si sentono più capaci di prendere decisioni da sole, esprimendo pensieri del tipo: “Non prendo più decisioni da solo perché non sarei capace senza consultare l’AI o Google”.
Un’indagine dell’American Psychological Association evidenzia come il 54% degli adulti americani si senta meno sicuro nelle proprie capacità decisionali a causa della costante dipendenza dalla tecnologia e 1 solo americano su 10 non è affetto da dipendenza da Internet.
Privacy e dati personali
Le tecnologie AI sono sviluppate da compagnie private che hanno i propri interessi commerciali.
Queste compagnie si cibano e si sono cibate dei nostri dati personali per sviluppare i loro sistemi.
Nel momento in cui regaliamo la nostra privacy, potremmo aver peccato di un eccesso di fiducia che un giorno potremo pagare salato.
La raccolta e l’utilizzo dei dati personali da parte di queste aziende sollevano preoccupazioni significative riguardo alla privacy e alla sicurezza dei nostri dati.
Le informazioni personali possono essere utilizzate per scopi commerciali, analisi predittive e altre applicazioni che potrebbero non essere nel migliore interesse degli utenti.
Consapevolezza e libero arbitrio
In un sistema così avanzato e veloce, l’unico potere che ci rimane è mantenere la consapevolezza di ciò che stiamo facendo, per mantenere un minimo di libero arbitrio e decisione su cosa veramente vogliamo condividere.
Il dilemma è proprio questo: senza i nostri dati, queste macchine non avrebbero sufficiente “benzina”, ma un conto è usare lo strumento per migliorare la propria esistenza, un altro è farsi sfruttare da un sistema che guadagna sulla nostra privacy, tenendo in mano le chiavi della nostra vita e libertà.
Il concetto di Privacy è stato sdoganato da molti anni e ci fu uno slogan famoso agli albori di The Facebook, che vedeva la privacy come obsoleta e nemica, successivamente dopo lo scandalo Cambridge Analytics è stato fatto un lavoro di reingegnerizzazione reputazionale che ha fatto dimenticare questo spavaldo concetto, spiegando agli utenti che Facebook e oggi Meta ha a cuore la privacy dei cittadini.
Fortunatamente nel nostro continente possiamo vantarci del sistema normativo più all’avanguardia del mondo in ambito di tutela della privacy dei cittadini come il GDPR ed oggi anche dell’AI Act come forma di resistenza alla corsa folle per la tecnologia senza morale guidata solo da ambizioni commerciali, implementando in modo più sicuro il meraviglioso mondo digitale e le sue infinite potenzialità.
Per affrontare queste problematiche, sono necessarie diverse strategie:
- Regolamentazione e supervisione: i governi e le autorità di regolamentazione devono stabilire normative chiare per prevenire monopoli e garantire una concorrenza leale. Questo può includere misure per garantire che le tecnologie AI siano accessibili anche alle piccole e medie imprese.
- Trasparenza e responsabilità: è fondamentale che i sistemi di AI siano trasparenti nel loro funzionamento e che ci sia una chiara responsabilità per le decisioni prese dagli algoritmi anche a tutela dei consumatori e delle imprese. Le aziende devono essere in grado di spiegare come funzionano i loro sistemi di AI e come vengono prese le decisioni e devono mettere a disposizione canali diretti per segnalare anche per vie legali, come con il diritto all’oblio, inesattezze lesive per gli interessi degli individui.
- Bias e inclusività: devono essere adottate misure per ridurre i bias negli algoritmi di AI. Questo può includere l’utilizzo di dati più equilibrati e rappresentativi, nonché la revisione, monitoraggio e il miglioramento continuo degli algoritmi per garantire che siano equi e inclusivi nella giusta misura, senza esasperazioni.
- Educazione e consapevolezza: le persone devono essere educate all’uso ed ai limiti dell’AI. Promuovere una maggiore consapevolezza sull’importanza di mantenere un ruolo attivo nel processo decisionale può aiutare a mitigare l’eccessiva dipendenza dalla tecnologia.
Web Reputation Artificiale (™): un nuovo concetto da tenere a mente
Se la reputazione digitale di un soggetto è la percezione che nasce da una ricerca attraverso l’utilizzo dei canali digitali come Google e social media, allora è essenziale introdurre un nuovo concetto interpretativo della valutazione reputazionale.
Nella nostra professione di consulenti della reputazione online con Workengo, per identificare il problema abbiamo dovuto coniare il termine di “Web Reputation Artificiale (™)”, la reputazione giudicata dalle AI.
Questo concetto si riferisce a ciò che l’intelligenza artificiale pensa e percepisce su persone, oggetti, aziende e altro ancora. In altri termini dobbiamo preoccuparci di cosa pensano le AI di noi e non solo i nostri stakeholder umani.
Sembra fantascienza ma in effetti le AI diventano uno stakeholder importante da monitorare e da informare ed influenzare per la tutela dei nostri interessi, altrimenti ne rimarremo schiacciati senza equilibrio.
Per validare questo concetto, nei nostri uffici, abbiamo sviluppato un’intelligenza artificiale progettata per monitorare ciò che un’altra AI pensa dei nostri clienti, e i risultati sono estremamente interessanti per due motivi principali:
- Persuasività dell’AI: l’AI è intrinsecamente persuasiva e convincente. Ciò che comunica sembra molto più logico, vero e credibile rispetto a una ricerca umana che può essere frammentata e soggettiva. Un esempio è come ChatGPT generi risposte sintetiche e convincenti che appaiono altamente affidabili agli utenti, mentre potrebbe basarsi su dati incompleti o errati.
- Influenza delle fonti: l’AI può basare le sue ricerche anche su post illegali, obsoleti o inutili, accreditandoli comunque o subendo un’influenza tale da generare un racconto non bilanciato. Questo porta alla generazione di informazioni distorte che vengono percepite come affidabili modificando di fatto la percezione e la reputazione del soggetto in esame a suo danno.
Qual è dunque il rischio?
Tra i vantaggi dell’utilizzare l’IA per le ricerche si nascondono pericolose insidie.
Se prima i risultati trovati su Google o sui social media venivano erroneamente percepiti come sicuramente veri, conferendo così una “autorevolezza” non sempre meritata, l’intelligenza artificiale può diventare uno strumento con un altissimo grado di autorevolezza percepita, rischiando di generare errori di valutazione giganteschi. È come se comparisse improvvisamente una persona che si dichiara il Messia e tutti ci credessimo, affidandoci completamente, mentre pochi saprebbero che dietro questa illusione si nasconde una manipolazione tecnologicamente avanzata.
Ingannare la nostra mente è ormai facile. In un mondo composto sempre più da immagini, video, testi e storie spesso finte, distinguerne la veridicità è diventato quasi impossibile.
Questo scenario rappresenta una sfida significativa per la reputation economy e per il destino della nostra specie e richiede una gestione attenta per evitare di cadere vittima delle manipolazioni e distorsioni generate dall’intelligenza artificiale.
Applicare il diritto all’oblio alla web reputation prima che diventi pane per l’intelligenza artificiale
Potremmo essere già in ritardo, ma è certo che le informazioni presenti online su Google e altri canali digitali e tradizionali possano essere non vere, diffamatorie o obsolete ed infine utilizzate per definirci in modo falso e lesivo di fronte il mondo tramite le AI e senza controllo.
Queste informazioni, quindi, meritano di essere corrette e, nelle situazioni più lesive, eliminate definitivamente usando tutti i mezzi legali ed informatici disponibili, in modo che ne umano ne macchina possano fruirle con le conseguenze note.
Infatti, se la benzina (le informazioni – i nostri dati) con cui si cibano le AI, proviene dai motori di ricerca, dai social e dai database reputazionali che utilizzano le banche ed altri enti governativi, è urgente, per avere tutela, verificare e ristabilire l’equilibrio sulla propria posizione digitale ora prendendo il controllo fin dall’inizio della propria web reputation.
Cosa penserebbe l’intelligenza artificiale del nostro nome? Quali fonti antagoniste userebbe per rispondere agli utenti che cercano informazioni su di noi? Quali contenuti pubblicati da sabotatori prenderebbe per buoni facendo il gioco dei nostri detrattori?.
Un esempio pratico
Articoli di giornale parlano di una vicenda giudiziaria che ha portato all’assoluzione dell’imprenditore Mario Rossi. Nonostante la risoluzione del caso diversi anni fa, digitando su Google il suo nome, ancora appare questa macchia negativa reputazionale come primi risultati, dove si dipinge il dott. Rossi erroneamente come indagato o arrestato.
Le conseguenze sono catastrofiche sulla sua qualità della vita e di quella di chi gli sta intorno, generando un pregiudizio perpetuo, pesante e ingiusto che colpisce a livello professionale, relazionale, psicologico, economico e finanziario.
Questa fattispecie è molto frequente e accade a ogni livello della società. Un esempio noto è il caso di Giuseppe Gulotta, vittima di un errore giudiziario e per molti anni dipinto dai media come colpevole di un crimine che non aveva commesso.
Situazioni simili continuano a verificarsi finché non si agisce con un consulente della reputazione per riabilitare e rivitalizzare la reputazione online.
Proviamo a metterci nei panni del dott. Rossi per comprendere le conseguenze tecniche di una reputazione digitale lesa.
Oltre alla terribile esperienza di essere stati per anni coinvolti in un processo giudiziario che probabilmente, con il senno di poi, non sarebbe dovuto nascere, il soggetto viene punito senza limiti e senza possibilità di difesa dall’esposizione mediatica negativa, da cui necessiterà di tempo per riprendersi, seguendo un percorso professionale supportato da un team multidisciplinare specializzato (comunicazione, informatica, legale, analisi dei dati e strategia reputazionale).
Inoltre, come spiegato nell’approfondimento sui database reputazionali, il pregiudizio prende forme più subdole e invasive.
Banche e altri enti di controllo potrebbero decidere di non voler avere più relazioni con il dott. Rossi o con qualsiasi altra attività correlata, comportando di fatto un’emarginazione fattuale limitando la libertà di agire nella società per via di un pregiudizio basato sul falso.
Adesso torniamo allo scenario in cui l’IA prende queste informazioni sbagliate dal web e dai database reputazionali, ambienti non aggiornati e non corretti.
Ecco che il bias artificiale e umano, sommandosi, creano una realtà parallela completamente distorta.
La combinazione di informazioni obsolete o errate e l’influenza algoritmica dell’AI può portare a decisioni automatizzate basate su dati imprecisi, compromettendo ulteriormente la capacità di un individuo di ripristinare la propria reputazione.
Per affrontare efficacemente questo problema, è imperativo implementare e applicare il diritto all’oblio nelle piattaforme digitali e nei meccanismi di raccolta dati dell’AI, garantendo che le informazioni obsolete o dannose possano essere rimosse e che la web reputation artificiale possa essere gestita in modo equo e trasparente.
Questo non solo proteggerà gli individui da un danno reputazionale ingiusto ma permetterà anche di migliorare l’accuratezza dei sistemi AI, riducendo il rischio di manipolazioni e false percezioni nella reputation economy.
Come tutelare la web reputation artificiale (™) di un imprenditore
Le seguenti indicazioni valgono per un manager, personaggio pubblico, azienda, studente e qualsiasi altro soggetto ma, per convenienza espositiva, dettagliamo il caso sulla fattispecie dell’ imprenditore.
Monitoraggio delle informazioni indicizzate
Prima di tutto, è necessario intercettare e monitorare tutte le informazioni indicizzate online che si associano all’identità dell’imprenditore su Google e simili. Questo passo prevede un censimento professionale delle informazioni disponibili per stabilire quali di queste siano lesive, ingiuste e non rappresentative della realtà. Uno studio del Pew Research Center ha mostrato che il 91% degli adulti concorda sul fatto che hanno perso il controllo su come le loro informazioni personali vengono raccolte e utilizzate, evidenziando l’importanza della gestione attiva della web reputation. La reputazione online di un soggetto deve essere infatti misurata ed identificata attraverso un punteggio quantitativo e qualitativo per fare analisi predittiva sulla percezione che il soggetto subirà in base a ciò che appare online. Ciò che può essere misurato può essere controllato.
Pulizia digitale ® professionale
È fondamentale intervenire professionalmente secondo una strategia ponderata, attraverso l’attività professionale identificata con il termine da noi coniato molti anni fa “Pulizia Digitale ®”. Questo implica ottenere la cancellazione di pagine web e informazioni false, obsolete e diffamatorie, ove la legge lo consenta. La rimozione di contenuti dannosi è essenziale per disintossicare l’ambiente digitale attorno all’imprenditore ed i suoi interessi ed obiettivi aziendali.
Creazione di contenuti positivi
Eliminare contenuti dannosi non basta. Se è vero che l’AI per rispondere si nutre delle informazioni che trova attorno a un argomento, è allora responsabile e cruciale guidare il processo di creazione di informazioni e contenuti sulla propria identità digitale. Questo deve essere basato chiaramente su dati reali, usando la verità per neutralizzare il falso o il verosimile allusivo, facendo attività di personal branding e di marketing per fornire un utile punto di vista sui valori e sulle competenze che servono a interpretare il proprio settore professionale.
Verifica dei database reputazionali
Un altro passo importante è verificare se i database reputazionali contengono per errore informazioni pregiudizievoli che non hanno il diritto di esistere e che ledono la libertà finanziaria dell’imprenditore. Le banche e altre istituzioni finanziarie spesso consultano questi database per valutare il rischio associato a individui e aziende, quindi è essenziale mantenere queste informazioni accurate e aggiornate per evitare il blocco totale della libertà di crescita finanziaria dell’imprenditore e delle sue aziende.
Monitoraggio e controllo costante
Monitorare e mantenere un controllo costante sulla propria web reputation è cruciale.
Questo può essere ottenuto grazie all’aiuto di esperti del settore, come consulenti della reputazione online certificati ed abilitati in materia a livello accademico.
Si tratta di una lotta contro il tempo: finché abbiamo ancora la possibilità di rimettere in sesto ciò che si dice su di noi, dobbiamo agire per non essere vittime di pregiudizi ingiusti e pervasivi futuri. La Web Reputation Artificiale(™), con tutti i suoi bias intrinseci, potrebbe altrimenti definire la qualità della nostra vita in maniera ancora più distorta, squilibrata e prepotente con conseguenze davvero preoccupanti.
Applicare una strategia di gestione della reputazione online che contempli il monitoraggio, la Pulizia Digitale ®, la creazione di contenuti positivi, la verifica dei database reputazionali e un costante controllo è fondamentale per tutelare la propria immagine nel contesto della reputation economy e potersi tutelare anche dal giudizio che le AI (non solo le persone) avranno sul nostro conto. La consapevolezza e l’azione proattiva sono le nostre uniche difese contro il pericolo di essere fraintesi in un’epoca dove sembra non esserci mai una sola verità.