Moonshot AI ha chiuso il 7 maggio 2026 un round da circa 2 miliardi di dollari che porta la valutazione del laboratorio cinese a 20 miliardi, sei mesi dopo i 4,3 miliardi di fine 2025. A guidare l'operazione e' Long-Z Investments, il braccio venture di Meituan, insieme a Tsinghua Capital, China Mobile e CPE Yuanfeng. Lo conferma Bloomberg citando documenti depositati a Pechino, mentre TechCrunch indica un fatturato annuo ricorrente di circa 200 milioni di dollari ad aprile.

L'aumento di capitale arriva mentre Kimi K2.6, il modello di punta dell'azienda di Pechino, e' diventato in poche settimane il secondo modello piu' usato su OpenRouter, la piattaforma che permette agli sviluppatori di scegliere fra LLM di diversi fornitori. Davanti c'e' solo Claude di Anthropic; dietro restano GPT-5.5 di OpenAI e Gemini 3.1 Pro di Google.

Chi mette i soldi e perche'

Long-Z Investments e' la cassaforte di Meituan, gigante cinese della consegna a domicilio: in primavera ha pubblicamente migrato parte dei propri carichi cloud sui modelli Kimi, e ora consolida il rapporto entrando nel capitale. Tsinghua Capital ripristina il legame con la celebre universita' di Pechino, da cui provengono buona parte dei ricercatori della startup. La presenza di China Mobile, primo operatore mobile del Paese, conferma l'interesse statale per i laboratori IA "domestici", in linea con la spinta di Pechino al disaccoppiamento tecnologico dagli Stati Uniti. CPE Yuanfeng e' invece un fondo sovrano che gia' partecipa al capitale di Zhipu e di altri "Sei Tigri" dell'IA cinese.

Da 4,3 a 20 miliardi in sei mesi

La crescita della valutazione di Moonshot e' fra le piu' rapide nella storia dell'IA. A fine 2025 valeva 4,3 miliardi; a gennaio 2026 il pre-money sale a 10 miliardi dopo un round da 700 milioni; oggi tocca 20. In totale, l'azienda ha raccolto circa 3,9 miliardi di dollari in meno di un anno. Il salto e' giustificato dai numeri di consumo: oltre alle revenue API, l'app Kimi Chat e' nella top 10 dei download App Store cinesi e ha superato Doubao di ByteDance in tempo di utilizzo medio.

I laboratori cinesi (Moonshot, DeepSeek, Alibaba, Tencent) hanno aperto piu' modelli di frontiera dei concorrenti americani nel primo trimestre 2026

Kimi K2.6, il modello che ha convinto gli sviluppatori

K2.6 e' un "Mixture of Experts" da circa 1.000 miliardi di parametri totali, distribuito anche con pesi aperti su Hugging Face. Il rilascio di K2.5 a gennaio 2026 aveva gia' allineato Moonshot a Claude e GPT sui benchmark di programmazione (SWE-bench Verified e LiveCodeBench); K2.6, uscito ad aprile, ha aggiunto un grafo di pianificazione interno che riduce le allucinazioni nei task agentici e raddoppia la velocita' di inferenza grazie a un nuovo router. Sulla piattaforma OpenRouter risulta il modello piu' richiesto dagli sviluppatori per i flussi di "long-context retrieval", grazie alla finestra di contesto da 1 milione di token e a un prezzo medio di circa 0,30 dollari per milione di token in input contro i quasi 3 di GPT-5.5.

L'IPO mancata e la guerra con DeepSeek

Yang Zhilin, fondatore di Moonshot, era passato da Meta AI e Google Brain prima di tornare a Pechino per fondare l'azienda nel 2023. La sua mossa di restare privato e raccogliere capitale arriva mentre l'altro laboratorio cinese di riferimento, DeepSeek, e' in trattativa per un primo round di venture capital che secondo le ricostruzioni di TechCrunch potrebbe spingere la valutazione fino a 45 miliardi. Anche Alibaba, con la nuova famiglia Qwen 3.6, e Tencent con Hunyuan HY3 Preview, hanno annunciato nuovi modelli open weight nelle ultime due settimane. Pechino sta cambiando le regole sull'IPO tech per trattenere le aziende sul mercato di Shanghai e Hong Kong, ed e' probabile che Moonshot punti a un debutto in borsa entro il 2027.

Cosa cambia per uno sviluppatore italiano

La notizia ha due risvolti immediati. Primo: Kimi K2.6 e' gia' disponibile via API a tariffe molto piu' basse di GPT-5.5 e Claude Opus 4.7, e con il nuovo capitale e' lecito attendersi ulteriori tagli. Secondo: il modello e' scaricabile e auto-ospitabile via Hugging Face e attraverso comandi tipo ollama pull kimi-k2:1tb; la versione completa richiede pero' cluster con almeno otto GPU H200 e non gira su un laptop. Per uso desktop esistono versioni distillate da 32B e 70B, eseguibili con Ollama e LM Studio su PC con 24-48 GB di VRAM.

I modelli MoE come Kimi K2.6 richiedono cluster GPU di fascia alta per girare in versione completa

I dati restano in Cina: il nodo conformita'

Per le aziende europee che stanno scegliendo a quale modello affidare i propri agenti, c'e' un dettaglio non secondario: Moonshot non ha mai ricevuto capitale americano e i dati delle chiamate API restano in Cina. Per chi sviluppa software destinato all'UE serve quindi verificare la conformita' con GDPR e AI Act, in particolare sui modelli a uso generale ad alto impatto sistemico ora sotto la nuova soglia di Bruxelles. Anthropic e OpenAI restano la scelta di default per la pubblica amministrazione europea; Kimi e' una valida alternativa "second source" per chi vuole indipendenza dai fornitori americani senza rinunciare alle prestazioni o usa modalita' offline self-hosted.