La vera guerra dell'AI: NVIDIA domina, AMD in perdita sull'inferenzaNel vortice dell'innovazione AI, la vera battaglia non si combatte solo nei laboratori, ma anche nei bilanci. Un recente report di Morgan Stanley Research, citato da Noticias AI, ha gettato luce sulla redditività del settore dell'inferenza AI, e i risultati sono tutt'altro che uniformi. Mentre NVIDIA festeggia margini di profitto vicini all'80% con la sua architettura Blackwell, giganti come AMD si trovano ad affrontare perdite significative, nonostante investimenti paragonabili.Questo studio è un vero e proprio termometro per capire chi sta davvero capitalizzando l'esplosione dell'intelligenza artificiale. Non basta più avere chip potenti; l'ecosistema, l'efficienza e la capacità di trasformare la potenza di calcolo in reali guadagni fanno la differenza. E qui, NVIDIA sembra aver trovato la ricetta segreta.Il Modello '100MW AI Factory': Svelando i Margini RealiPer la prima volta, Morgan Stanley ha sviluppato un modello analitico chiamato “100MW AI Factory Model”. Questo strumento simula il funzionamento di un data center di medie dimensioni dedicato esclusivamente all'inferenza di modelli AI, offrendo una metrica omogenea per confrontare la redditività dei vari fornitori. Immaginate una fabbrica che produce intelligenza, con una potenza di riferimento di 100 MW, un costo totale di proprietà (TCO) che include infrastruttura, hardware, elettricità e raffreddamento, e ricavi calcolati sui token processati al secondo. È un approccio pragmatico che va oltre le promesse, mostrando i numeri veri.E i numeri parlano chiaro: NVIDIA, con la sua piattaforma GB200 NVL72 Blackwell, raggiunge un impressionante margine operativo del 77,6%, con profitti stimati in 3,5 miliardi di dollari in uno scenario tipo. Un successo che non si deve solo alla potenza bruta delle GPU, ma a un mix vincente di fattori.NVIDIA: Non Solo Hardware, Ma Ecosistema e OttimizzazioneIl dominio di NVIDIA non è un caso. Tre elementi chiave spiegano questo successo stratosferico. Primo, la compatibilità con il formato FP4, una precisione ridotta che massimizza l'efficienza nelle cariche di inferenza. Secondo, l'ecosistema CUDA, maturo e ampiamente adottato, che ottimizza le prestazioni anche su generazioni precedenti di hardware. Terzo, quello che viene chiamato l'effetto “fine wine”: aggiornamenti software periodici che migliorano le GPU esistenti (come Hopper e Blackwell) senza bisogno di nuovo hardware. In pratica, il software di NVIDIA non solo sblocca il potenziale del suo hardware, ma lo moltiplica, creando un divario insormontabile con i concorrenti. È la dimostrazione che l'AI non è solo una questione di chip, ma di un'orchestra ben diretta tra hardware e software.Chi Resiste e Chi Crolla: Il Caso AMDMentre NVIDIA vola, altri attori cercano di farsi spazio. Google, con le sue TPU v6e, si avvicina con un margine del 74,9%, grazie all'integrazione hardware-cloud. Anche AWS, con il suo Trn2 UltraServer (62,5%), e Huawei CloudMatrix 384 (47,9%) mostrano una solida redditività. Questi dati confermano che la combinazione di hardware proprietario e un ecosistema cloud ottimizzato è una strategia vincente, anche se non basta a superare il monopolio tecnico-finanziario di NVIDIA.La vera sorpresa, o forse la grande delusione, è AMD. Nonostante le grandi aspettative, la sua piattaforma MI355X registra un margine negativo del -28,2%, e la precedente MI300X crolla a un insostenibile -64,0%. Il problema di AMD è strutturale: investe somme simili a NVIDIA per il TCO, ma l'efficienza nell'inferenza è così bassa che i ricavi generati non coprono minimamente l'investimento. È come costruire una macchina da corsa che consuma come un camion e non riesce a vincere nessuna gara. Il gap in termini di software e ottimizzazione dell'ecosistema, rispetto a CUDA, si rivela un tallone d'Achille decisivo.Il Futuro dell'AI: L'Inferenza è la ChiaveIl report di Morgan Stanley sottolinea un aspetto cruciale: l'inferenza rappresenterà l'85% della domanda di AI nei prossimi anni. Questo rende la situazione attuale un fattore critico per la sopravvivenza dei concorrenti. NVIDIA, con la sua roadmap che include Rubin (2026) e future generazioni come Rubin Ultra e Feynman, sta cementando la sua egemonia. AMD, dal canto suo, sta preparando il lancio di MI400, un tentativo disperato di arginare l'emorragia e competere con Rubin. Ma la battaglia non è solo sui chip: gli standard di interconnessione (NVLink vs UALink vs Ethernet) saranno decisivi per l'efficienza dei grandi cluster di GPU.In conclusione, la vera guerra nell'AI non è solo una corsa all'hardware più potente, ma una guerra di ecosistemi. NVIDIA domina perché controlla l'intero sistema: software, ottimizzazioni e supporto a lungo termine. Google e AWS dimostrano che i giganti del cloud possono essere rivali redditizi se integrano hardware proprietario con la loro infrastruttura. Huawei si ritaglia uno spazio regionale significativo nonostante le restrizioni. AMD, invece, è rimasta indietro, dimostrando che senza un ecosistema software robusto come CUDA, anche i chip più promettenti non bastano a sostenere il business dell'AI. Il futuro dell'AI è nell'inferenza, e chi non riesce a renderla profittevole rischia di rimanere tagliato fuori.