Google ha fissato per il 19 e 20 maggio 2026 la sua conferenza annuale per sviluppatori, il Google I/O, all'anfiteatro Shoreline di Mountain View. Come ormai accade da tre anni, il filo conduttore sara' l'intelligenza artificiale: dopo un 2025 passato a integrare Gemini in ogni prodotto, l'azienda arriva all'appuntamento con una famiglia di modelli matura e la necessita' di mostrare cosa ci si costruisce sopra. Ecco cosa e' lecito aspettarsi, distinguendo le notizie probabili dalle ipotesi.

Gemini: nuovi modelli e nuove funzioni in agenda

Il cuore del keynote sara' quasi certamente Gemini. Google ha gia' fatto evolvere rapidamente la linea — con versioni Pro e Flash sempre piu' capaci sul ragionamento, sui contesti lunghi (fino a un milione di token) e sui compiti agentici — e all'I/O e' tradizione presentare un aggiornamento importante o annunciare la disponibilita' generale di funzioni prima riservate ai test. Tra i temi caldi: agenti capaci di operare dentro Chrome e Android, integrazione piu' profonda in Workspace e nella Ricerca, miglioramenti su generazione di immagini e video (la famiglia Veo e' diventata un punto di forza), e strumenti per sviluppatori — dall'API di Gemini a Google AI Studio e Firebase — pensati per costruire applicazioni "agentiche". Verosimile anche un focus su modelli piu' piccoli ed efficienti pensati per girare sui dispositivi, tema reso urgente dai costi del calcolo e della memoria.

Gemini sara' al centro del keynote: attesi aggiornamenti sui modelli, sugli agenti e sugli strumenti per sviluppatori.

Android XR e gli occhiali smart

L'altro grande capitolo riguarda l'hardware indossabile. Google ha presentato negli ultimi mesi Android XR, la piattaforma per visori e occhiali, e ha mostrato prototipi di occhiali smart con Gemini integrato, in concorrenza diretta con i Ray-Ban di Meta. All'I/O 2026 ci si aspetta dettagli piu' concreti: partner produttori, tempi di arrivo sul mercato, funzioni come traduzione in tempo reale, riconoscimento di cio' che si guarda, navigazione. E' un terreno su cui Google vuole non ripetere gli errori dei Google Glass di un decennio fa, e l'IA generativa e' la leva con cui prova a renderli finalmente utili.

Aluminium OS, Wear OS e gli altri capitoli

Tra le voci circolate c'e' anche "Aluminium OS", un progetto che fonderebbe Android e ChromeOS in un unico sistema operativo, con l'IA come strato trasversale: se ne potrebbe parlare, anche se non e' detto che sia pronto per un annuncio formale. Probabili poi aggiornamenti su Wear OS, su Android Auto, sulle funzioni di accessibilita' basate sull'IA e su Project Astra, l'assistente multimodale "universale" che Google sta sviluppando. Come sempre, accanto al keynote principale ci saranno decine di sessioni tecniche dedicate agli sviluppatori.

Cosa guardare se si lavora con l'IA

Per chi in Italia sviluppa prodotti o sperimenta con l'IA, i punti da monitorare sono tre: i nuovi limiti, prezzi e capacita' dell'API di Gemini (e l'eventuale livello gratuito di Google AI Studio); gli strumenti per costruire agenti che eseguono compiti, non solo chatbot; e la disponibilita' di modelli leggeri da far girare in locale o sui dispositivi. Tutto cio' che segue va preso come previsione: gli annunci ufficiali arriveranno solo il 19-20 maggio, e Google e' bravissima a tenere il segreto fino all'ultimo. Conviene seguire la diretta e poi verificare sul blog ufficiale dell'azienda quali funzioni sono davvero disponibili e in quali Paesi. Vale la pena ricordare che diverse novita' presentate ai keynote Google arrivano in Europa con settimane o mesi di ritardo, a volte in versione ridotta per ragioni regolatorie: l'entusiasmo del palco va sempre confrontato con la disponibilita' reale. Aggiorneremo questo articolo con i dettagli concreti dopo l'evento.