Negli appuntamenti annuali Google I/O e Microsoft Build i due colossi hanno delineato le proprie strategie principalmente nel campo dell’intelligenza artificiale, allo stesso tempo OpenAI ha annunciato l’acquisizione della startup io di Jony Ive.
Altro annuncio che vede la collaborazione tra lo storico design dei prodotti Apple unire le forze con Sam Altman e l’azienda di ChatGPT. Questi annunci ci possono aiutare a capire le direzioni di sviluppo che ci accompagneranno nel corso di questo anno e quindi in quali nuovi modi utilizzeremo l’AI. Cerchiamo di capire quali sono le novità e il panorama che contribuiranno a delineare nel prossimo futuro dove l’AI sarà così onnipresente da diventare l’aria digitale che respiriamo.
Benvenuti nell’era dell’AI invisibile.
Cambierà tutto. Ora siamo noi a cercare l’AI, per usarla. A breve sarà in tutti i servizi digitali che già usiamo e in altri che ancora non ci sono o che sono ancora sperimentali (gli agenti AI).
Indice degli argomenti
I modelli e il loro uso: Microsoft e Google
Microsoft continua il percorso che la allontana apparentemente da OpenAI, Azure AI Foundry ospita ormai oltre 1900 modelli inclusi quelli dell’europea Mistral, e si apre a un approccio BYOM (Bring Your Own Model) sia per i modelli nel cloud che anche per quelli eseguiti in locale sui PC grazie al supporto hardware di acceleratori dedicati.
Google annuncia nuove versioni del proprio modello Gemini 2.5 e la capacità di eseguire la versione Nano di Gemini sui dispositivi Android confermando il trend di avere, almeno in parte, modelli AI che eseguono direttamente nei dispositivi alcuni compiti.
In ogni caso è evidente come i modelli siano meno centrali negli annunci, si tratta infatti della tecnologia che viene continuata a sviluppare ed è alla base di praticamente tutte le novità, ma sembrano ormai consolidarsi e non portare più stravolgimenti come negli ultimi anni. Ci sono però delle eccezioni: il modello Veo3 di Google non solo genera filmati ma è capace anche di generare l’audio del video, e vede la luce anche il modello Lyria 2 per la composizione musica.
Gli agenti AI
Come previsto gli agenti AI si confermano un elemento fondante per l’intelligenza artificiale del 2025, sono un elemento che ci allontana dal modello di AI che risponde alle nostre domande e ci offre assistenti che promettono di svolgere compiti sempre più complessi per nostro conto.
Anche per questo il protocollo MCP (Model Context Protocol) proposto da Anthropic è ormai adottato da praticamente tutti i big e consente ai modelli di compiere azioni che vadano oltre la mera generazione di testo e immagini. Microsoft ne ha annunciato l’integrazione in Windows consentendo agli agenti di fatto la manipolazione (sperabilmente controllata) del nostro PC; è anche possibile per le app in Windows registrare azioni mediante la nuova App Actions API che saranno esposte mediante il protocollo MCP a modelli di intelligenza artificiale.
Il protocollo Agent2Agent, originariamente proposto da Google, si sta affermando come standard de facto con l’annuncio di Microsoft per il suo supporto. Si tratta di un protocollo di interazione tra agenti che necessitano di scambiarsi obiettivi e stati prefigurando un mondo in cui gli agenti AI non solo portano avanti compiti in modo autonomo ma possono anche collaborare per il loro raggiungimento.
Come nel caso dei modelli anche gli agenti sono meno sotto i riflettori e sono menzionati nei vari annunci che indicano che un particolare servizio possa svolgere compiti su richiesta.
L’AI invisibile
Quello che però colpisce di più degli annunci è la progressiva perdita di identità della funzione di AI con il suo inserimento all’interno di numerose interfacce.
AI nei servizi e indossabile
Ecco che Google introduce l’AI mode nella Search che integra la Deep Search e, quando acceduto mediante il telefono mobile anche project Astra, ovvero la possibilità di fornire all’AI un video dalla fotocamera che sarà elaborato da Gemini (questa funzione è per ora disponibile solo negli Stati Uniti ma Google ha annunciato il progressivo rilascio globale nelle prossime settimane). Si tratta di un annuncio molto importante perché Google finora aveva tenuto separata la funzione di Search (fonte primaria di ricavi) dal mondo dell’AI, questo cambiamento di rotta è degno di nota di per sé.
Troviamo poi l’AI immersa nella versione Android XR per la realizzazione di smartglasses per applicazioni di realtà aumentata. La suite Workspaces viene poi potenziata introducendo smart replies in Gmail, una app mobile dedicata al popolare servizio NotebookLM e la possibilità di caricare direttamente PDF in Deep Research.
Anche Microsoft, nonostante Build sia una conferenza dedicata agli sviluppatori, ha annunciato Copilot Tuning, ovvero la possibilità di integrare i dati aziendali in Copilot in modo da realizzare agenti specializzati, ad esempio in Microsoft Teams, al fine di ottenere servizi direttamente nelle interfacce di Microsoft 365. Windows 11 vedrà inoltre l’inserimento del Copilot Runtime, un runtime sul dispositivo che usa le capacità degli AI PC di esecuzione di modelli AI anche locali.
Sembra quindi che la tendenza sia quella di spostare l’AI da interfaccia principale, come invece accade per ChatGPT e Claude, ad assistente che eroga i propri servizi sfruttando il contesto all’interno di altri servizi, oppure in background come agente che lavora per nostro conto.
In questo contesto non può non saltare all’occhio l’accordo di Sam Altman con Jony Ive, guru del design di dispositivi e della user interaction. Molti hanno interpretato la mossa come la volontà di OpenAI di realizzare dispositivi, ma l’acquisizione potrebbe invece puntare ad acquisire le competenze per disegnare una nuova user experience dei sistemi basata su una AI protagonista.
Adesso non resta da vedere come questi grandi annunci e promesse di rivoluzione si concretizzeranno nei prossimi mesi e se davvero l’AI diverrà invisibile, oppure cominceremo a rendere invisibili le applicazioni chiedendo all’AI di effettuare il lavoro per conto nostro.