Google Android XR: ecco come funzioneranno i nuovi occhiali smart
Gli occhiali Android XR non sono più solo un esercizio di stile da laboratorio: Google ha fissato il 2026 come orizzonte per portarli sul mercato e nel frattempo sta definendo in modo piuttosto preciso come dovrà funzionare l’esperienza d’uso.
Nelle nuove linee guida per sviluppatori, Google mette nero su bianco non solo che cosa dovranno fare questi occhiali dal punto di vista hardware, ma anche come si controllerà l’interfaccia, quali gesti saranno ammessi e come dovranno essere progettate le app, soprattutto quando lo schermo resta spento e tutto passa dall’audio.
Google distingue in modo chiaro due famiglie di Android XR glasses. I primi sono gli AI Glasses, che integrano altoparlanti, microfono e fotocamera, ma non hanno alcun display.
La seconda categoria sono i Display AI Glasses, che aggiungono un piccolo schermo. I modelli con un solo pannello prendono il nome di monocular, mentre quelli con due schermi, cioè binocular, arriveranno in un secondo momento.
In entrambi i casi, chi indossa gli occhiali può disattivare il display in qualsiasi momento. Per questo motivo Google chiede che le app restino completamente utilizzabili anche in modalità solo audio, senza costringere a guardare il display.
Sul fronte hardware, Google impone alcuni controlli fisici comuni a tutti i modelli di occhiali Android XR. Ogni dispositivo deve includere un pulsante di accensione, un touchpad laterale e un pulsante dedicato alla fotocamera.
Per i modelli con schermo è previsto anche un pulsante display, che finora Google ha posizionato sul lato inferiore dell’asta. Questo comando serve per attivare o spegnere rapidamente il pannello, così da passare in un attimo dalla visualizzazione completa alla modalità audio-only.
Il pulsante fotocamera ha funzioni piuttosto dirette: un singolo tocco scatta una foto, una pressione prolungata avvia la registrazione video, un nuovo tocco la interrompe e una doppia pressione apre l’app Fotocamera.
Il touchpad laterale diventa il centro dei comandi rapidi. Un tap gestisce play/pausa o conferma le selezioni, mentre il tocco prolungato richiama Gemini, l’assistente di Google integrato negli occhiali.
Gli swipe svolgono funzioni diverse a seconda che lo schermo sia attivo o meno. In modalità audio, uno swipe serve a passare al contenuto successivo o precedente, oppure a chiudere rapidamente un elemento. Con il display acceso, gli swipe permettono di scorrere liste, spostare il focus tra i vari elementi e premere pulsanti.
Con uno swipe a due dita si regola il volume, mentre lo swipe verso il basso sul display funziona da indietro: riporta alla Home o alla schermata precedente quando si naviga all’interno delle app.
Gli occhiali includono inoltre due LED, uno rivolto verso chi li indossa e uno verso le persone intorno. Questi LED forniscono un feedback visivo sullo stato delle funzioni e del dispositivo. Google li considera a tutti gli effetti parte della interfaccia di sistema: non si possono modificare e devono rientrare nella progettazione dell’esperienza utente complessiva.
Sugli occhiali con display, Google introduce una schermata Home che viene paragonata alla schermata di blocco del telefono. È il punto di ingresso principale, sempre presente quando non si sta usando una specifica app.
Nella parte inferiore della Home si trova la barra di sistema, sempre visibile. Qui compaiono ora, meteo, notifiche, avvisi, eventuali chip contestuali e il feedback visivo di Gemini quando l’assistente è in funzione.
Sopra la barra, la Home mostra informazioni contestuali e facilmente consultabili, senza richiedere alcun input da parte dell’utente. In questa zona trovano posto anche i collegamenti rapidi alle azioni più probabili e gli elementi di multitasking, quando sono in esecuzione più attività contemporaneamente.
Le notifiche nella barra di sistema vengono visualizzate come chip a forma di pillola. Quando entrano a fuoco, si espandono per mostrare più dettagli, mantenendo però un formato compatto e coerente con il resto dell’interfaccia.
Per le app destinate agli occhiali Android XR, Google introduce un linguaggio di design dedicato chiamato Glimmer. Questo approccio definisce come devono apparire schermate, componenti e animazioni per risultare leggibili in un display ottico see-through.
Una delle indicazioni più precise riguarda le forme: Google sconsiglia gli angoli netti, perché possono creare piccole "tasche visive" che attirano lo sguardo nei punti sbagliati. Preferisce angoli arrotondati, che riducono queste distrazioni e rendono l’interfaccia più uniforme.
Il tema dei colori diventa cruciale. Sugli schermi trasparenti alcune tonalità consumano più energia e generano più calore di altre. Secondo le linee guida, il verde è il colore meno energivoro, mentre il blu è quello che richiede più potenza, a parità di tono.
Google raccomanda di limitare il numero di pixel accesi e di non spingere troppo sulla luminosità, perché uno schermo più brillante scalda di più. Un riempimento eccessivo, per esempio una schermata quasi tutta bianca, può portare a interventi di mitigazione termica, con impatto sull’esperienza d’uso.
Anche le icone vanno progettate con attenzione. Per evitare il cosiddetto light bleed (o halation), Google suggerisce di usare icone non riempite, preferendo contorni e segni leggeri. Quando non serve una grafica personalizzata, consiglia di adottare i Material Symbols Rounded, che rispettano queste indicazioni.
Per facilitare il lavoro degli sviluppatori, Google mette a disposizione Jetpack Compose Glimmer, una raccolta di componenti ottimizzati per gli occhiali Android XR.
Tra questi ci sono i classici pulsanti, ma anche elementi più specifici per questo tipo di interfaccia. La title chip, ad esempio, mostra un titolo breve, un nome o uno stato e svolge il ruolo che sulle app mobili è affidato alle barre superiori.
Sono previsti anche card, liste e un componente chiamato stack, che funziona come una lista compressa: mostra un solo contenuto alla volta, con una resa grafica “a pila”, utile per notifiche o schede che si susseguono.
In questo modo Google cerca di standardizzare non solo l’aspetto delle app, ma anche il loro comportamento sugli occhiali XR, riducendo le differenze tra un servizio e l’altro e mantenendo l’interfaccia prevedibile.
Se queste linee guida verranno seguite con coerenza, nel 2026 potremmo trovarci con occhiali XR che non puntano all’effetto "wow" a tutti i costi, ma a qualcosa di più utile: un’esperienza quotidiana meno confusa e più gestibile, anche quando la realtà aumentata resta in tasca e ci si affida solo all’audio.
L'articolo Google Android XR: ecco come funzioneranno i nuovi occhiali smart sembra essere il primo su Smartworld.
Qual è la tua reazione?
Mi piace
0
Antipatico
0
Lo amo
0
Comico
0
Furioso
0
Triste
0
Wow
0




