Google che punta su Xreal per fare degli smart glasses Android qualcosa di mainstream non è solo l’ennesimo annuncio da CES2026, ma il momento in cui l’ecosistema XR di Mountain View prende finalmente una forma riconoscibile per chi vive di Android. È un passaggio che sposta il baricentro dagli headset ingombranti a occhiali che vogliono assomigliare a un wearable quotidiano, ma con dentro abbastanza silicio e sensori da ridefinire cosa intendiamo per “smart glasses”.
La storia parte dall’accordo pluriennale che rende Xreal il principale partner hardware per Android XR, la nuova piattaforma di Google pensata per dispositivi che spaziano dai visori misti alle lenti leggere, il tutto supportato dagli strumenti di sviluppo Android “classici”, da OpenXR per la compatibilità multipiattaforma e dall’integrazione profonda con Gemini per la parte di intelligenza artificiale contestuale. Il primo prodotto concreto di questa alleanza è Project Aura, un paio di occhiali XR in arrivo nel 2026 con un campo visivo di circa 70 gradi e un design tethered: gli occhiali restano leggeri, mentre il grosso del calcolo si sposta in una “compute puck” tascabile che dialoga con le lenti via cavo. È una scelta che dice molto su come Google immagina la transizione dalla realtà mista stile Galaxy XR a qualcosa che assomigli di più a un paio di Ray-Ban con dentro un sistema operativo.
Tecnicamente Aura è interessante perché rompe con l’estetica “mini-Visor” e con le lenti birdbath dei primi prototipi, adottando un’ottica a prisma piatto più compatta di circa il quaranta per cento, ma capace di spingere l’FOV fino a settanta gradi, valore che avvicina questi occhiali più a un headset leggero che a un semplice display indossabile. Dentro le aste non c’è solo elettronica di contorno: Xreal parla di un chip X1S nei glasses, affiancato da un SoC XR più potente nel puck, con una distribuzione dei compiti che lascia ai visori il tracking della testa e delle mani, mentre il “mattoncino” in tasca si occupa del rendering 3D e dei carichi AI più pesanti. È architettura modulare che serve anche a un altro obiettivo poco dichiarato nelle keynote ma evidente per chi legge le specifiche: la possibilità di riciclare parte dello stack software del Galaxy XR e di altri headset Android XR, facendo girare sul puck gran parte delle app e delle esperienze già ottimizzate per il visore Samsung, con alcune eccezioni legate a funzioni che richiedono il face tracking.

Sotto il cofano, Android XR si presenta come il tentativo di Google di evitare il frammento di esperimenti XR del passato, predisponendo un OS unico per headset e occhiali che offre un’interfaccia adattata alla realtà estesa, API spaziali, supporto OpenXR e soprattutto accesso diretto alla famiglia di modelli Gemini, con la promessa di esperienze multimodali che “vedono” ciò che vede l’utente. Questa integrazione nativa significa, in pratica, che gli occhiali possono usare fotocamere e sensori per contestualizzare ciò che hai davanti, riconoscere oggetti, tradurre conversazioni in tempo reale o sovrapporre informazioni rilevanti, senza delegare ogni richiesta a uno smartphone che fa da intermediario. Nelle demo ufficiali si sono viste funzioni che vanno dalle indicazioni turn-by-turn “in aria” davanti a te alla messaggistica hands-free, fino a una traduzione live che proietta sottotitoli sovrapposti alle persone con cui stai parlando, sfruttando la fusione tra visione, audio e linguaggio nei modelli Gemini.
Cosa cambia davvero per gli smart glasses?
La risposta sta tutta nel salto da semplice periferica a nodo a pieno titolo dell’ecosistema Android, con una pila tecnica che riduce il ruolo del telefono a optional o a compagno, non più a life support. Finora la maggior parte degli occhiali “smart” si è divisa tra dispositivi pensati come display secondario a bassa latenza – i vari Xreal Air e simili – e modelli alla Ray-Ban Meta, dove gran parte della logica è nel cloud e nello smartphone e l’hardware sul viso rimane essenzialmente un front-end per foto, audio e qualche overlay limitato. Android XR, con il suo modello tethered ma autonomo lato compute e con un OS comune a visori e glasses, introduce invece una continuità di esperienze: ciò che oggi provi su un headset chiuso – dal training industriale alle app di produttività con finestre virtuali – può domani vivere in forma alleggerita su occhiali che ti permettono di vedere il mondo reale, ma con widget e layer digitali che condividono lo stesso runtime, gli stessi servizi di AI e la stessa base di codice.
Per gli sviluppatori Android questo significa un target nuovo ma familiare: il toolkit rimane quello di sempre, con la possibilità di usare OpenXR per portare contenuti da altre piattaforme, ma si aggiungono estensioni spaziali e API legate a gesture, ancoraggi nello spazio fisico e occlusione degli oggetti, in un contesto dove la camera non è più solo un sensore ma un input per l’AI. Ed è proprio l’AI integrata che, nel racconto di Google, giustifica il passaggio dagli schermi al viso: non si tratta più solo di avere notifiche negli occhiali, bensì di avere un assistente che condivide il tuo punto di vista, prende decisioni rapide basandosi su ciò che stai guardando e ti risparmia il gesto di tirare fuori lo smartphone, con tutte le implicazioni di attenzione, privacy e dipendenza dallo schermo che ne derivano. Dal punto di vista di chi segue Android da anni, la scommessa con Xreal appare quindi come la più concreta incarnazione della “era Gemini” su hardware indossabile: meno hype sul metaverso, più ambizione di trasformare gli smart glasses da gadget per fiere a endpoint quotidiani di un ecosistema che parla già la lingua degli sviluppatori Android, ma chiede loro di immaginare interfacce che non si limitano più allo schermo rettangolare della solita app.
Vuoi discutere di questa funzione o condividere altre anticipazioni? Unisciti alla conversazione nella nostra community
Per approfondire
- https://future.forem.com
- https://www.androidcentral.com
- https://www.android.com
- https://blog.google
- https://virtual.reality.news
- https://www.xreal.com
- https://www.reddit.com
- https://www.uploadvr.com
- https://www.techradar.com
- https://www.xrtoday.com
- https://blog.google
- https://inairspace.com
- https://www.youtube.com
- https://uk.pcmag.com
- https://www.xrtoday.com
