La corsa all'AI: chi vince sul fronte dell'inferenza?Il mondo dell'intelligenza artificiale è un campo di battaglia dove la tecnologia si scontra con la finanza. Non si tratta solo di chi costruisce i chip più potenti, ma di chi riesce a trasformare quella potenza in profitti concreti. Un recente rapporto di Morgan Stanley Research ha gettato una luce impietosa su questo aspetto, rivelando cifre che lasciano poco spazio a interpretazioni: NVIDIA sta dominando il mercato dell'inferenza AI con margini di profitto vicini all'80%, mentre i suoi concorrenti, in particolare AMD, faticano a tenere il passo, registrando addirittura perdite significative.Questo studio non è basato su stime generiche, ma su un modello analitico chiamato “100MW AI Factory Model”. Immaginate un centro dati di medie dimensioni, con un consumo di 100 MW (circa 750 rack di server ad alta densità), dedicato esclusivamente all'inferenza, ovvero l'applicazione pratica dei modelli di intelligenza artificiale. Il modello calcola il costo totale di proprietà (TCO) – che include infrastruttura, hardware, elettricità e raffreddamento – e lo confronta con i ricavi attesi, basati sui token elaborati al secondo (TPS) e sui prezzi di mercato delle API, come quelle di OpenAI o Gemini. Il risultato è un quadro chiaro della redditività per i vari attori sul campo.NVIDIA: il segreto del successo tra software e hardwareLe conclusioni sono schiaccianti: la piattaforma GB200 NVL72 Blackwell di NVIDIA vanta un impressionante 77,6% di margine operativo, con profitti stimati in 3,5 miliardi di dollari in uno scenario tipico. Questo dominio non è solo frutto della potenza bruta delle sue GPU, ma di una combinazione vincente di fattori. Primo fra tutti, la compatibilità con il formato FP4, che massimizza l'efficienza nelle operazioni di inferenza, riducendo consumi e aumentando la densità di calcolo. Ma il vero asso nella manica di NVIDIA è l'ecosistema CUDA. Questo ambiente software, maturo e ampiamente adottato, ottimizza le prestazioni anche delle generazioni hardware precedenti, dimostrando come il software possa moltiplicare il valore dell'hardware. In pratica, NVIDIA non vende solo chip, ma una soluzione completa e ottimizzata che i concorrenti faticano a replicare.Gli altri attori: tra resistenze e delusioniMentre NVIDIA cavalca l'onda, altri cercano di ritagliarsi la loro fetta di mercato. Google, con le sue TPU v6e, raggiunge un rispettabile 74,9% di margine, grazie all'integrazione tra hardware proprietario e il suo ecosistema cloud. Anche AWS Trn2 UltraServer si difende bene con il 62,5%, consolidando l'impegno di Amazon nello sviluppo di chip interni. Persino Huawei CloudMatrix 384, nonostante le restrizioni internazionali, ottiene un 47,9%, dimostrando la sua forza nel mercato asiatico. Questi dati confermano che l'integrazione verticale – hardware proprietario e cloud ottimizzato – è una strategia vincente, ma non sufficiente a scalfire il monopolio tecnico-finanziario di NVIDIA.La vera nota dolente, però, arriva da AMD. Le loro piattaforme MI355X e MI300X registrano rispettivamente un margine negativo del -28,2% e un disastroso -64,0%. Ciò significa che AMD, pur investendo somme simili a NVIDIA per lo sviluppo dei chip (il TCO del MI300X è quasi uguale a quello del GB200 di NVIDIA), non riesce a generare entrate sufficienti a coprire i costi. L'efficienza nell'inferenza è talmente bassa che i ricavi per token elaborato non bastano neanche lontanamente a ripagare l'investimento. In sostanza, AMD spende quanto NVIDIA, ma perde denaro invece di guadagnarlo.Le implicazioni per il futuro: una guerra di ecosistemiIl rapporto di Morgan Stanley sottolinea un dato cruciale: l'inferenza rappresenterà l'85% della domanda di AI nei prossimi anni. Questo rende la situazione attuale un fattore critico per la sopravvivenza dei concorrenti. NVIDIA, con la sua roadmap che include Rubin (2026) e future generazioni come Rubin Ultra e Feynman, si sta assicurando l'egemonia. AMD, dal canto suo, prepara il lancio di MI400, un tentativo di arginare l'emorragia e competere con Rubin. Ma la battaglia non si gioca solo sul silicio. Anche gli standard di interconnessione (NVLink vs UALink vs Ethernet) saranno determinanti, definendo l'efficienza dei grandi cluster di GPU.In definitiva, questo studio rivela che la vera lotta nel campo dell'AI non è solo hardware, ma una guerra di ecosistemi. NVIDIA domina perché controlla l'intero sistema: software (CUDA), ottimizzazioni, e supporto a lungo termine. Google e AWS dimostrano che gli hyperscaler possono essere rivali redditizi se integrano il proprio hardware con il cloud. Huawei si difende bene a livello regionale. AMD, invece, arranca, dimostrando che non basta lanciare chip potenti; senza un ecosistema software all'altezza di CUDA, il business non è sostenibile. È una lezione amara, ma chiara, per chiunque voglia competere nel futuro dell'intelligenza artificiale.