Google ha rilasciato martedì 12 maggio 2026 il proprio piano per riprendere il controllo dello smartphone prima che Apple risponda con Siri 2.0 al WWDC di giugno. Nome del progetto: Gemini Intelligence. La frase chiave che Sameer Samat, presidente Android, ha ripetuto due volte sul palco del The Android Show: I/O Edition: «Stiamo passando da un sistema operativo a un sistema di intelligenza». Significa che Android, da Android 17 in poi, ridisegna l'esperienza utente attorno a un agente che agisce tra le app.
Cosa fa Gemini Intelligence, in concreto
Gemini Intelligence è un livello agentico che si appoggia ai modelli Gemini 3 e a una nuova famiglia di modelli on-device chiamata Gemini Nano 3, ottimizzata per i Tensor G6 di Pixel e per gli Exynos 2700 dei Galaxy. Sotto al cofano cambia poco rispetto a Gemini già presente: cambia molto come l'assistente accede ai dati e alle app dell'utente. Cinque le funzioni principali svelate al keynote:
- Task automation cross-app: l'esempio della demo era fotografare la locandina di un evento, chiedere all'assistente di trovarlo su Expedia, prenotare hotel, mettere l'evento in calendario.
- Auto-browse in Chrome: in modalità sperimentale, l'assistente naviga siti per conto dell'utente (esempio: prenotare un biglietto, completare un modulo).
- Rambler su Gboard: voice input riscritto in tempo reale togliendo riempitivi, ripetizioni, pause; supporta switch di lingua all'interno della stessa frase.
- Create My Widget: l'utente descrive un widget in linguaggio naturale («Mostrami tre ricette ad alto contenuto proteico ogni settimana») e l'assistente lo costruisce per la home.
- Android Auto integrato: ordinare cibo da DoorDash dall'auto, fare domande in viaggio, brainstorming a mani libere.
Cosa significa «agire tra le app»
Il salto rispetto ai vecchi assistenti è l'accesso al contesto dello schermo e alle App Actions. Quando l'utente attiva Gemini, l'assistente legge cosa è visualizzato nella app in primo piano e ottiene accesso ai dati dell'app stessa attraverso le App Actions di Android (la versione Google delle Apple Intents). Esempi pratici:
- L'utente sta leggendo una conversazione WhatsApp con un amico che propone una cena: chiede a Gemini di prenotare via OpenTable mantenendo il contesto.
- Sta guardando una pagina Gmail con allegato fattura: chiede a Gemini di estrarre il PDF, riconoscere i campi e inviarli al commercialista.
- Sta navigando un articolo lungo: chiede un riassunto vocale o di tradurlo, mentre l'app legge il contenuto.
Per gli sviluppatori il punto importante è il nuovo SDK App Actions 4, già in beta su Android Studio Iguana: ogni app può esporre «capabilities» che Gemini chiamerà durante una conversazione. Spotify, Booking, Trenitalia, Just Eat hanno già pubblicato i propri pacchetti.
Come e quando provarlo
Per chi vuole sperimentare subito, il rollout è così suddiviso:
- Pixel 10 e Pixel 11 (con Tensor G5 e G6), già aggiornati ad Android 16 QPR3: Gemini Intelligence arriva via aggiornamento system component a partire da venerdì 16 maggio 2026.
- Samsung Galaxy S25/S25 Ultra e Z Fold/Flip 7: rollout dal 23 maggio via One UI 8.0 con il modulo Gemini Intelligence preinstallato.
- Altri Android compatibili (con almeno 8 GB di RAM e SoC dell'ultimo biennio): entro fine giugno via Play Services.
Per attivarlo: aprire Impostazioni > Apps > Default apps > Digital assistant, selezionare Gemini, poi entrare in Gemini > Settings > Intelligence Mode e attivare il toggle. Il primo avvio chiede di concedere il permesso Screen Understanding e di approvare le App Actions su base per-app.
Privacy: cosa cambia per i dati personali
Il punto più sensibile è ovviamente quanto Gemini Intelligence vede dei dati. Google ha pubblicato un technical paper sulla privacy insieme al lancio. La sintesi: i task brevi rimangono sul dispositivo grazie a Gemini Nano 3; quelli che richiedono ragionamento avanzato vanno al cloud ma con cifratura confidential computing (TEE su TPU). I dati delle App Actions non vengono usati per addestramento in nessun caso, conferma il documento.
Esiste un nuovo dashboard Privacy in Impostazioni > Privacy > AI dove l'utente vede in tempo reale quali app stanno parlando con Gemini, quante azioni sono state eseguite e può revocare singoli permessi. Per gli utenti europei, il sistema rispetta i requisiti del GDPR e del Data Act: Google ha precisato durante la sessione developer che gli utenti UE possono richiedere il cancellation completo delle interazioni con un click.
Costi e piani
Le funzioni base di Gemini Intelligence sono gratuite per tutti gli utenti Android con dispositivo compatibile. Le funzioni avanzate — auto-browse esteso, contesto di memoria oltre i 30 giorni, generazione widget illimitati, Veo 3 per i video — sono incluse in Google AI Premium a 21,99 euro al mese in Italia. Il piano Gemini Advanced viene rinominato e i clienti esistenti migrati senza azione.
Per gli sviluppatori, l'API delle App Actions resta gratuita: si paga solo il consumo di modelli Gemini lato server, come già oggi tramite Vertex AI e Gemini API. La documentazione completa è su developer.android.com/intelligence ed include un changelog dei tre eventi del Google I/O di giugno già pubblicati.




