Groq sfida NVIDIA: La battaglia dell'IA si sposta in Europa

Mentre la scena tecnologica è da tempo dominata da NVIDIA, un nuovo, agguerrito contendente sta muovendo le sue pedine. Si chiama Groq, un'azienda americana che ha sviluppato un'architettura hardware rivoluzionaria, le Language Processing Unit (LPU), e che ora punta forte sull'Europa.

Groq sbarca in Europa: la silenziosa sfida a NVIDIA nell'AI

Mentre la scena tecnologica è da tempo dominata da NVIDIA, con i suoi potenti chip che addestrano le intelligenze artificiali più sofisticate, un nuovo, agguerrito contendente sta muovendo le sue pedine. Si chiama Groq, un'azienda americana che ha sviluppato un'architettura hardware rivoluzionaria, le Language Processing Unit (LPU), e che ora punta forte sull'Europa. Non è solo una mossa commerciale, ma un segnale chiaro: la guerra dei chip AI si sta spostando, e il campo di battaglia è l'inferenza.

Ma cosa significa esattamente “inferenza” nel mondo dell'AI? Se l'addestramento è il processo in cui un'intelligenza artificiale impara da quantità colossali di dati (un lavoro che richiede mesi e GPU potentissime), l'inferenza è la sua applicazione pratica. È ciò che accade ogni volta che interagiamo con ChatGPT, Midjourney, o qualsiasi servizio AI: il modello 'inferisce' una risposta o un'immagine basandosi sulla nostra richiesta. Questo processo deve essere non solo efficiente, ma anche fulmineo, quasi istantaneo. E qui Groq vuole fare la differenza.

LPU vs. GPU: la nuova frontiera dell'efficienza

Finora, le GPU di NVIDIA hanno regnato sovrane, ottimizzate per calcoli paralleli che sono perfetti per l'addestramento dei modelli. Tuttavia, Groq ha preso una strada diversa. Invece di adattare chip generici, ha creato le LPU, unità progettate da zero con un unico scopo: eseguire modelli linguistici alla massima velocità possibile, con una latenza quasi inesistente. Il risultato? Performance che, in alcuni benchmark, surclassano nettamente le soluzioni concorrenti, rendendo le interazioni con l'AI incredibilmente più rapide e fluide. Non si tratta più solo di potenza bruta, ma di efficienza mirata.

L'espansione di Groq in Europa non è un caso. L'azienda ha appena inaugurato un centro dati in Finlandia, in collaborazione con Equinix, segnando il suo ingresso strategico nel Vecchio Continente. Questa mossa è un chiaro messaggio a un mercato che cerca alternative al quasi-monopolio di NVIDIA, offrendo a startup e grandi aziende europee una soluzione potente e specializzata per le applicazioni AI in tempo reale. Immaginate chatbot avanzati che rispondono senza esitazioni, analisi finanziarie istantanee o sistemi di assistenza alla guida dove ogni millisecondo conta: in questi ambiti, le LPU potrebbero davvero accelerare l'innovazione.

Il mercato cambia: l'inferenza raddoppia il training

Le previsioni economiche confermano questa tendenza. Uno studio di Noticias AI, citando dati McKinsey & Company, stima che a breve termine il mercato hardware per l'inferenza sarà il doppio di quello per l'addestramento nei data center, e addirittura il triplo se si considerano i dispositivi periferici come smartphone o edge devices. Barclays, dal canto suo, prevede che entro due anni i giganti tecnologici spenderanno più in chip di inferenza che in quelli di training. Se queste proiezioni si avverassero, NVIDIA potrebbe perdere circa il 50% della sua quota di mercato, una fetta di circa 200 miliardi di dollari che aziende come Groq sono pronte a contendersi. È un cambio di paradigma significativo: la priorità non è più solo creare modelli, ma farli funzionare in modo impeccabile per l'utente finale.

Con la diffusione di strumenti come ChatGPT e Gemini, l'inferenza non è più un'operazione di nicchia, ma il cuore pulsante dell'utilizzo quotidiano dell'intelligenza artificiale. Gli utenti non vogliono aspettare minuti per una risposta o pagare cifre esorbitanti per ogni query. Vogliono immediatezza, efficienza e scalabilità. E proprio in questo scenario, le LPU di Groq potrebbero diventare il nuovo standard. La loro silenziosa ma determinata irruzione sul mercato europeo è un segnale forte: il futuro dell'AI non sarà solo addestramento, ma soprattutto un'inferenza rapidissima e accessibile. La battaglia per il dominio dei chip AI è appena iniziata, e l'Europa potrebbe essere il suo epicentro.