Apple sta lavorando a un meccanismo, internamente chiamato "Extensions", che a partire dall'autunno 2026 permettera' agli utenti di iOS 27, iPadOS 27 e macOS 27 di scegliere un modello di intelligenza artificiale di terze parti — per esempio Google Gemini o Anthropic Claude — per alimentare funzioni come Siri, gli Strumenti di scrittura e Image Playground. Lo riportano diverse fonti vicine allo sviluppo del sistema operativo: nelle build di prova, iOS 27 descrive la funzione come la possibilita' di "accedere su richiesta alle capacita' di IA generativa delle app installate" attraverso le funzioni di Apple Intelligence.
Come funzionerebbe il meccanismo "Extensions"
Il modello e' simile a quello gia' usato da Apple per i browser o le app di posta predefinite. I fornitori di IA aggiungono il supporto a "Extensions" alle loro app gia' presenti sull'App Store; una volta installata un'app compatibile, l'utente puo' impostarla come modello preferito in Impostazioni. Da quel momento, un singolo interruttore indirizza al modello scelto le richieste che oggi vanno a ChatGPT o ai modelli interni di Apple: una domanda complessa a Siri, una riscrittura di testo, la generazione di un'immagine. Apple, secondo le ricostruzioni, sta gia' testando internamente le integrazioni con Google e Anthropic.
Perche' Apple cambia strategia
Fino a oggi l'integrazione di IA generativa nei sistemi Apple ha avuto due limiti percepiti: i modelli interni dell'azienda sono considerati meno capaci dei rivali sulle attivita' piu' impegnative, e l'unico fornitore esterno disponibile era ChatGPT di OpenAI. Aprire la porta a piu' fornitori risponde a tre esigenze: dare agli utenti output migliori su Siri e Strumenti di scrittura senza dover colmare da soli il divario di capacita'; ridurre la dipendenza da un singolo partner; e mostrare ai regolatori — in Europa il Digital Markets Act spinge proprio verso l'interoperabilita' e la possibilita' di scegliere servizi alternativi — un approccio piu' aperto.
Il caso Gemini: due trattative diverse
Va distinta una cosa: oltre al meccanismo "Extensions" selezionabile dall'utente, esiste una trattativa separata, gia' riportata da diverse testate, per usare Gemini di Google come motore di alcune funzioni native di Siri e Apple Intelligence, ossia "sotto il cofano", a prescindere dalla scelta dell'utente. Le due cose possono convivere: Gemini come fornitore di base per certi compiti, e contemporaneamente Gemini, Claude e altri come opzioni installabili tramite "Extensions". Per gli utenti italiani, in pratica, significherebbe poter usare l'app Gemini o l'app Claude (gia' disponibili sull'App Store) e collegarle al sistema con un tocco.
Cosa cambia per chi sviluppa app e per gli altri laboratori
Per i laboratori IA, "Extensions" e' un canale di distribuzione potenzialmente enorme: chi convince l'utente a installare la propria app e a sceglierla come modello predefinito entra in tutte le interazioni di sistema. E' lecito aspettarsi, quindi, una corsa di OpenAI, Google, Anthropic e probabilmente Mistral e altri ad adeguare le rispettive app. Restano molte incognite: quali funzioni saranno davvero delegabili, come Apple gestira' privacy e trattamento dei dati quando la richiesta esce dal dispositivo, e se il sistema arrivera' in Europa contemporaneamente al resto del mondo. Nulla e' ufficiale finche' Apple non lo annuncera', presumibilmente alla conferenza per sviluppatori WWDC di giugno; per ora si tratta di funzioni viste nelle versioni di test del software.




