La Commissione europea ha aperto una consultazione per stabilire quali misure Alphabet dovrà adottare affinché gli assistenti AI concorrenti possano interoperare efficacemente con Android: accesso all’hardware e al software, attivazione vocale, interazione con le app installate, capacità di agire per conto dell’utente.
Il procedimento si fonda sul Digital Markets Act, in particolare sull’art. 6, par. 7, e tocca il cuore funzionale degli smartphone: accesso all’hardware e al software del dispositivo, attivazione tramite comandi vocali, interazione con le applicazioni dell’utente, capacità di eseguire compiti in autonomia — inviare messaggi, condividere contenuti, navigare tra le app. Tradotto in termini più diretti: Gemini, l’assistente AI di Google, gode oggi di un’integrazione privilegiata nell’ecosistema Android, e Bruxelles vuole verificare se quel vantaggio strutturale debba aprirsi anche a ChatGPT, a Claude e agli altri assistenti che cercano spazio sugli stessi dispositivi.
Fin qui la cronaca. Ma per capire perché questa notizia importa — e importa molto — bisogna fare un passo indietro e guardare il quadro più largo dentro il quale si inserisce.
Indice degli argomenti
Interoperabilità assistenti AI Android e diritto europeo
L’Europa sta costruendo, pezzo dopo pezzo, un diritto dell’intelligenza artificiale. Non lo sta costruendo con un unico testo, in un unico momento, secondo una logica lineare. Lo sta costruendo per stratificazione, assemblando norme che nascono da impulsi diversi, rispondono a preoccupazioni diverse e tuttavia finiscono per comporsi in qualcosa di coerente — o almeno di coordinato. Al centro di questo mosaico ci sono due strumenti principali, che operano su piani distinti ma si integrano: il Digital Markets Act e l’AI Act. Il primo governa il potere delle piattaforme; il secondo governa i rischi dei sistemi di intelligenza artificiale. Il primo guarda alle condizioni strutturali del mercato digitale; il secondo guarda alla qualità giuridica e tecnica dell’AI che in quel mercato opera. Insieme formano una tenaglia: fiducia nell’intelligenza artificiale da un lato, contendibilità dell’ecosistema dall’altro.
L’AI Act e il calendario degli obblighi
L’AI Act è entrato in vigore il 1° agosto 2024 e si dispiega secondo un calendario progressivo: i divieti assoluti — le pratiche di AI incompatibili con i diritti fondamentali — sono diventati operativi nel febbraio 2025; gli obblighi specifici per i modelli di AI general-purpose, quelli che stanno alla base di quasi tutti gli assistenti di nuova generazione, si applicano dall’agosto 2025; le regole sui sistemi ad alto rischio matureranno tra il 2026 e il 2027. Il modello è quello del rischio: più un sistema AI incide su ambiti sensibili — lavoro, istruzione, sicurezza, accesso ai servizi — più stringenti sono gli obblighi di trasparenza, documentazione tecnica, controllo umano, robustezza e cybersicurezza. È una logica che proviene dalla tradizione regolatoria europea dei prodotti, applicata per la prima volta a qualcosa di radicalmente diverso: non un oggetto, ma un processo cognitivo artificiale.
Android, DMA e la soglia degli assistenti AI concorrenti
Il DMA, invece, è uno strumento di diritto della concorrenza di nuova generazione, e si muove secondo una logica diversa. Non aspetta che un abuso si verifichi per intervenire; non richiede la prova di un danno già prodotto. Identifica ex ante alcune piattaforme — i gatekeeper, i guardiani del mercato digitale — e impone loro obblighi strutturali: interoperabilità, trasparenza, divieto di pratiche auto-preferenziali, accesso equo ai dati. Alphabet, con Android, è uno di questi gatekeeper. E il caso aperto a gennaio 2026 riguarda esattamente questa funzione di guardianship applicata all’intelligenza artificiale: il sistema operativo come soglia, e l’assistente AI come entità che deve poter attraversarla senza essere frenata dall’architettura proprietaria del dispositivo.
Assistenti AI Android: i tre snodi della consultazione UE
La Commissione individua tre snodi concreti. Il primo è la possibilità per i servizi AI concorrenti di essere richiamati tramite wake words — le parole di attivazione vocale — con la stessa naturalezza con cui oggi si attiva Gemini. Il secondo è la capacità di questi assistenti di interagire con le applicazioni dell’utente per comprendere il contesto e agire in modo utile: leggere ciò che è aperto sullo schermo, capire cosa si sta facendo, eseguire operazioni che attraversano più app. Il terzo è l’accesso alle risorse hardware e software necessarie per garantire prestazioni affidabili e reattive, senza essere relegati in una condizione di inferiorità tecnica strutturale rispetto all’assistente di casa. Detto in un’unica formula: l’assistente concorrente deve poter agire nel sistema operativo con una profondità funzionale comparabile a quella dell’assistente proprietario. La parità giuridica esige una parità tecnica. E la parità tecnica, in questo contesto, diventa la nuova frontiera della sovranità digitale europea.
Sicurezza, dati e apertura imposta
Google risponde con argomenti prevedibili ma non privi di sostanza: sicurezza del sistema, protezione dei dati, costi tecnici dell’apertura, libertà dei produttori di dispositivi di configurare le proprie scelte di integrazione. Il lessico usato dalle due parti è rivelatore. Per Bruxelles, “apertura” significa contendibilità: più attori, più scelta per l’utente, meno cristallizzazione del vantaggio del primo arrivato. Per Google, “apertura imposta” significa rischio sistemico: se un assistente di terze parti può interagire in profondità con il sistema operativo, ogni anello debole di quella catena diventa una vulnerabilità. Non è solo retorica difensiva. È anche una domanda tecnica reale, che la consultazione dovrà in qualche modo affrontare: come si garantisce interoperabilità senza abbassare le soglie di sicurezza? Come si definisce la parità funzionale senza appiattire le differenze di qualità tra servizi?
Interoperabilità assistenti AI Android e controllo dell’infrastruttura
Ma al di là del confronto tra posizioni, c’è qualcosa di più profondo in gioco, che spiega perché questa vicenda merita attenzione al di là del perimetro della procedura amministrativa. L’Europa sta compiendo uno spostamento del baricentro regolatorio: dalla regolazione del contenuto alla regolazione dell’infrastruttura. Per anni il dibattito sulle piattaforme ha ruotato attorno a temi come la moderazione dei contenuti, la profilazione pubblicitaria, il ranking dei risultati di ricerca, le condizioni degli app store, la protezione dei dati personali. Questioni importanti, che hanno prodotto normative importanti — il GDPR, il Digital Services Act, le varie pronunce antitrust su Google Shopping, Google AdSense, Google Android nel suo primo capitolo europeo. Ma erano, in larga misura, questioni di superficie: riguardavano ciò che le piattaforme mostravano, dicevano, vendevano, raccoglievano.
Il sistema operativo non è più soltanto il software che fa girare le app: diventa l’ambiente cognitivo dentro cui l’assistente AI percepisce, interpreta e agisce. Il motore di ricerca non restituisce più link: genera risposte. L’assistente non risponde a comandi: anticipa bisogni, esegue compiti, costruisce contesto. La piattaforma non è più intermediario tra contenuti e utenti: è intermediario tra utenti e decisioni. In questo scenario, chi controlla il livello infrastrutturale — il sistema operativo, l’accesso all’hardware, la posizione di default — controlla qualcosa di qualitativamente diverso rispetto a ciò che controllava prima. Controlla il punto in cui l’intelligenza artificiale entra in contatto con la vita delle persone.
Gemini su Android e la concorrenza tra assistenti AI
Ecco perché il caso Android-Gemini non è semplicemente una disputa antitrust su quale assistente venga preinstallato su uno smartphone. È la prima applicazione esplicita del principio che l’AI integrata nei dispositivi personali appartiene al perimetro delle regole sui gatekeeper. È l’affermazione che la concorrenza tra modelli linguistici non si può decidere soltanto sulla qualità tecnica dei modelli, ma dipende dalle condizioni di accesso all’infrastruttura su cui quei modelli operano: API, permessi di sistema, wake words, profondità di integrazione con le app, accesso ai sensori, gestione della memoria contestuale. Se questi elementi rimangono appannaggio esclusivo dell’assistente proprietario, il mercato dell’AI si decide prima ancora che l’utente abbia la possibilità di scegliere.
Europa, Big Tech e l’accesso agli assistenti AI
Sullo sfondo, inevitabilmente, si staglia la dimensione transatlantica. Le imprese coinvolte sono americane; gli strumenti europei producono effetti che si estendono ben oltre i confini dell’Unione; le Big Tech lamentano da tempo che il modello regolatorio europeo frammentei il mercato globale, aumenti i costi di compliance e comprima l’innovazione. Bruxelles risponde con il linguaggio della contendibilità e della prevenzione delle posizioni di mercato strutturalmente irreversibili. Il conflitto ha insieme una dimensione industriale e una dimensione quasi costituzionale: non riguarda solo chi vende cosa a chi, ma chi decide le regole dello spazio digitale in cui si svolge una quota crescente della vita economica, informativa, relazionale delle persone.
La consultazione aperta in gennaio è, nel suo insieme, un campanello. Dice che l’intelligenza artificiale è diventata abbastanza centrale — abbastanza incorporata nei dispositivi, abbastanza determinante nell’orientare l’esperienza digitale quotidiana — da richiedere un intervento regolatorio che non si accontenti di disciplinarne i rischi, ma ne governi le condizioni strutturali di accesso.
DMA, AI Act, Data Act, DSA e regole antitrust tradizionali compongono ormai un sistema, imperfetto e ancora in costruzione, ma orientato da una domanda di fondo che non cambia: chi governa l’accesso alla capacità computazionale che orienta scelte, consumi, informazioni, relazioni? In apparenza è una disputa su Gemini e su Android. In profondità è una prova generale di qualcosa di più ambizioso: il tentativo europeo di fare del diritto dell’accesso — accesso al mercato, accesso all’utente, accesso alle funzioni del dispositivo — il principio organizzatore dell’era dell’intelligenza artificiale.













