Stretta sulle Big Tech: i nuovi obiettivi dell’antitrust Usa | Agenda Digitale

Il rapporto

Stretta sulle Big Tech: i nuovi obiettivi dell’antitrust Usa

Legislatori e autorità, in Europa come negli Usa, si stanno gradualmente muovendo verso un più stringente controllo del mondo digitale e dei suoi fenomeni abusivi, anche e soprattutto con riferimento all’intelligenza artificiale e ai suoi impatti distorsivi non solo sulla privacy ma sulle vite di tutti noi. Ecco le ultime novità

26 Apr 2021
Marina Rita Carbone

Consulente privacy

Si stringe oltreoceano il cerchio sulle Big Tech, oggetto di un nuovo rapporto dell’Antitrust USA, i cui punti essenziali sono stati resi noti da Reuters, a seguito della pubblicazione di una nota da parte di David Cicilline, chairman dell’Antitrust USA.

Nel rapporto, lungo 450 pagine, le principali Big Tech (Google, Amazon, Facebook ed Apple) sono accusate di aver mantenuto una posizione dominante tramite l’attuazione di tattiche emulative o di acquisizione dei propri competitor, attuando allo stesso tempo condotte auto-preferenziali o miranti all’esclusione dei concorrenti dal mercato, deprezzamento predatorio dei prodotti, e altro. Tali tattiche anticoncorrenziali avrebbero impedito alle aziende più piccole di poter rappresentare dei veri “sfidanti” per le Big Tech, creando un’alterazione nel mercato digitale.

Big Tech, i ritardi della politica sono rischi per i nostri diritti

Le accuse alle Big Tech

Tra le principali accuse mosse nei confronti delle Big Tech, a parziale conclusione di quello che è un processo di studio delle stesse e delle loro tattiche commerciali che dura da anni, rientrano:

WEBINAR
30 Giugno 2021 - 12:00
Taglio netto di costi e tempi: ecco il Webinar che svela i segreti della rivoluzione RPA
Intelligenza Artificiale
IoT
  • L’utilizzo, da parte di Facebook, del vantaggio ottenuto dall’analisi dei dati dei propri utenti al fine di elaborare informazioni di mercato “superiori”, che consentissero di identificare le minacce nascenti per la propria posizione dominante e di acquisire, copiare o “uccidere” le aziende competitor;
  • L’utilizzo, da parte di Google, del proprio monopolio sui motori di ricerca per appropriarsi indebitamente dei contenuti di terze parti e aumentare, così, le proprie offerte verticali inferiori, penalizzando i fornitori verticali di terze parti nei risultati del motore di ricerca;

In generale, le Big Tech avrebbero abusato del loro “tremendo potere”, “addebitando commissioni esorbitanti, imponendo condizioni contrattuali oppressive ed estraendo dati preziosi dalle persone e dalle aziende che si affidano a loro”.

In qualità di intermediari per i prodotti e i servizi essenziali dell’odierno mondo digitale, le piattaforme tecnologiche hanno, infatti, una leva sia sui produttori che sui consumatori. Controllano enormi quantità di dati dei propri utenti e clienti, sollevando numerose preoccupazioni sia sotto il profilo concorrenziale che in materia di privacy. In virtù della loro “doppia natura” di gestori delle piattaforme e venditori di prodotti, competono con gran parte dei venditori che dipendono dalla visibilità e dalla struttura della piattaforma stessa.

Tale conflitto, ormai resosi evidente, accresce le richieste di un serio intervento sulla struttura organizzativa dei giganti digitali. Stando ai dati pubblicati da Bloomberg, le cinque Big – Alphabet, Amazon, Apple, Facebook e anche Microsoft – hanno fatto più di 600 acquisizioni nell’ultimo decennio, per un valore di oltre 200 miliardi di dollari.

Un dato alquanto preoccupante, se letto anche alla luce del potere gradualmente acquisito dalle stesse: negli Stati Uniti, Google e Facebook raccolgono insieme più della metà della spesa pubblicitaria digitale e Apple ha circa la metà del mercato degli smartphone; il 50% o più delle vendite di eCommerce negli Stati Uniti passa attraverso Amazon; il 99% dei dispositivi mobili negli Stati Uniti e a livello globale funzionano sui sistemi Android di Apple iOS o Google; Google acquisisce circa l’89% di tutte le query di ricerca negli Stati Uniti; l’app di Facebook ha raggiunto il 74% degli utenti di smartphone statunitensi a dicembre 2019.

A tale report, che rappresenta il primo passo per la stesura di una riforma della normativa Antitrust più stringente rispetto a quella vigente, oltre che maggiormente adattabile al mercato digitale, si affianca poi la prosecuzione di numerose azioni nei confronti delle Big Tech; azioni che potrebbero concludersi anche con la divisione forzata dei colossi digitali, al pari di quanto avvenuto per AT&T.

Big Tech e antitrust, in UK arriva la Digital Markets Unit: ruolo e obiettivi

Limitazioni e controllo degli algoritmi

Anche in Europa abbiamo assistito a una maggiore volontà di controllare le Big Tech e, più in generale, regolamentare il mercato digitale, sia sotto il profilo Antitrust che per quanto riguarda il funzionamento degli algoritmi di intelligenza artificiale posti alla base del funzionamento della quasi totalità dei prodotti forniti da queste società (da ultimo, è stata pubblicata la proposta per il “Regolamento sull’approccio europeo per l’intelligenza artificiale”).

Tendenza, questa, che è seguita anche oltreoceano: la U.S. Federal Trade Commission, infatti, ha pubblicato delle raccomandazioni per tutte le imprese che sviluppano algoritmi di intelligenza artificiale, o di analisi predittiva, allo scopo di rendere l’utilizzo di tali tecnologie innovative veritiero, giusto ed equo.

Le sette raccomandazioni della FTC sull’intelligenza artificiale

Le raccomandazioni enunciate dalla FTC per il corretto funzionamento e sviluppo dei sistemi di intelligenza artificiale sono 7:

  • Iniziare con le giuste basi: se a un set di dati mancano informazioni provenienti da determinati gruppi della popolazione, o minoranze, l’utilizzo di tali dati per creare un modello di intelligenza artificiale può produrre risultati ingiusti o iniqui per gli stessi. Fin dalla progettazione dell’IA, quindi, occorre pensare come migliorare il set di dati e progettare l’IA, tenendo conto delle eventuali lacune di dati e, alla luce di eventuali carenze, limitandone alcuni utilizzi.
  • Porre attenzione ai risultati discriminatori: durante la PrivacyCon 2020, evento organizzato dalla stessa FTC, alcuni ricercatori hanno mostrato che gli algoritmi sviluppati per scopi positivi come l’allocazione delle risorse sanitarie e la pubblicità hanno effettivamente portato a pregiudizi razziali. Pertanto, al fine di ridurre il rischio di discriminazioni, è essenziale testare approfonditamente l’algoritmo, sia prima della commercializzazione che periodicamente nel corso del suo utilizzo, per assicurarsi che non discrimini in base alla razza, al sesso o ad altre categorie protette.
  • Perseguire obiettivi di trasparenza e indipendenza, ad esempio utilizzando framework di trasparenza e standard indipendenti, conducendo e pubblicando i risultati di audit indipendenti e aprendo i set di dati utilizzati o il codice sorgente a ispezioni esterne.
  • Limitare le funzionalità dell’algoritmo per evitare distorsioni nei risultati dello stesso: ai sensi del FTC Act, le dichiarazioni ai clienti e ai consumatori devono essere veritiere, non ingannevoli e supportate da prove. Pertanto, occorre non esagerare nell’elencazione di ciò che l’algoritmo può offrire. Supponiamo, ad esempio, che uno sviluppatore di intelligenza artificiale dica ai clienti che il suo prodotto fornirà “decisioni di assunzione imparziali al 100%”, ma che l’algoritmo sia stato costruito sulla base di dati privi di elementi di diversità razziale o di genere: il risultato dell’algoritmo potrà essere inevitabilmente lesivo o discriminatorio.
  • Essere trasparente sulle modalità di utilizzo dei dati: è recentemente emerso, infatti, che la società Everalbum ha utilizzato le foto caricate dagli utenti dell’app per addestrare il suo algoritmo di riconoscimento facciale. L’FTC ha affermato che, in tal modo, l’azienda ha ingannato gli utenti sulla loro capacità di controllare la funzione di riconoscimento facciale dell’app e ha fornito false dichiarazioni sulla capacità degli utenti di eliminare foto e video al momento della disattivazione dell’account. Per scoraggiare le violazioni future, l’FTC ha richiesto all’azienda di eliminare non solo i dati illeciti, ma anche i modelli di riconoscimento facciale o gli algoritmi sviluppati con le foto o i video degli utenti.
  • Perseguire finalità “giuste”: supponiamo che l’algoritmo consenta a un’azienda di rivolgersi ai consumatori più interessati all’acquisto del proprio prodotto. Se il modello individua i consumatori considerando razza, colore, religione e sesso, e il risultato è il redlining digitale (ovvero la negazione sistematica e selettiva di servizi o beni a determinate categorie di individui) l’FTC può contestare l’uso di tale modello come sleale.
  • Auto-responsabilizzarsi: è importante ritenersi responsabili in prima linea delle prestazioni del proprio algoritmo. Nel caso in cui si faccia piena applicazione del principio di auto responsabilizzazione, lo sviluppo dell’algoritmo sarà inevitabilmente più accorto, a tutela del cliente finale e dei cittadini che potrebbero essere lesi dall’applicazione dello stesso.

Conclusioni

Possiamo ben affermare, dunque, che i legislatori e le autorità, stiano muovendosi gradualmente e globalmente verso un maggiore controllo del mondo digitale e dei suoi fenomeni abusivi, anche e soprattutto con riferimento agli algoritmi di intelligenza artificiale, il cui corretto funzionamento è fondamentale per evitare impatti distorsivi non solo sulla privacy ma sulle vite di tutti noi.

@RIPRODUZIONE RISERVATA

Articolo 1 di 3