DeepSeek ha rilasciato a fine aprile 2026 DeepSeek V4-Pro, un modello linguistico con architettura a esperti (Mixture-of-Experts) da circa 1.600 miliardi di parametri totali e 49 miliardi attivi a ogni passo, distribuito con licenza MIT — la piu' permissiva in circolazione — e una finestra di contesto da un milione di token. Sui benchmark piu' citati il modello si colloca in fascia "frontiera": tra i risultati comunicati ci sono circa 80,6% su SWE-bench Verified (correzione di bug reali), 93,5% su LiveCodeBench e un punteggio elevato su Codeforces, numeri che lo mettono in competizione con i migliori modelli chiusi sul terreno della programmazione.

Cosa cambia rispetto alle versioni precedenti

DeepSeek si era gia' fatta notare nel 2025 con modelli capaci di avvicinare le prestazioni dei rivali americani a una frazione del costo. V4-Pro porta avanti questa logica: piu' parametri totali ma un numero contenuto di parametri attivi (quindi inferenza relativamente economica per la "stazza"), contesto lungo per lavorare su interi repository o documenti, e un rilascio aperto che permette ad aziende e ricercatori di scaricare i pesi, ispezionarli, metterli a punto e ospitarli sui propri server. La licenza MIT, in particolare, consente l'uso commerciale senza vincoli particolari — un punto rilevante per chi in Italia vuole costruire prodotti senza dipendere da un'API esterna. Il rilascio arriva, non a caso, mentre DeepSeek e' in trattativa per un round di finanziamento da diversi miliardi di dollari.

DeepSeek V4-Pro punta molto sulla programmazione: nei test dichiarati supera l'80% su SWE-bench Verified.

Come provarlo gratis (e quanto costa l'API)

Ci sono tre strade, dalla piu' semplice alla piu' tecnica:

  • Chat sul sito ufficiale: si va su chat.deepseek.com, ci si registra con email o account Google e si puo' usare il modello gratuitamente, con i limiti d'uso tipici dei piani free (numero di messaggi nelle ore di punta). E' il modo piu' rapido per capire se fa al caso vostro.
  • API per sviluppatori: su platform.deepseek.com si crea una chiave API. DeepSeek e' storicamente tra i fornitori piu' economici: i prezzi per milione di token sono nell'ordine di pochi centesimi o decimi di dollaro in input e qualche unita' in output, con uno sconto per le richieste in fascia oraria notturna. L'API e' compatibile con il formato OpenAI, quindi basta cambiare base_url e nome del modello in codice gia' scritto.
  • Pesi aperti: i modelli si trovano su Hugging Face sotto l'organizzazione deepseek-ai. Attenzione pero': V4-Pro e' enorme: anche in versione quantizzata richiede piu' GPU di fascia alta (decine e decine di GB di VRAM complessiva) e non gira su un PC normale. Per la maggior parte degli utenti la scelta pratica resta l'API o la chat; chi vuole il locale puo' guardare alle versioni "distillate" piu' piccole della famiglia DeepSeek, eseguibili con ollama pull dei modelli corrispondenti o tramite vLLM.

Un esempio concreto via API

Con Python e la libreria openai (puntata all'endpoint DeepSeek):

from openai import OpenAI
client = OpenAI(api_key="LA_TUA_CHIAVE", base_url="https://api.deepseek.com")
r = client.chat.completions.create(
    model="deepseek-chat",
    messages=[{"role":"user","content":"Scrivi una funzione Python che, dato un file CSV, restituisca le 5 righe con il valore piu' alto nella colonna fatturato, gestendo valori mancanti. Aggiungi un test."}],
)
print(r.choices[0].message.content)

Il risultato atteso e' un blocco di codice commentato in italiano con la funzione, la gestione dei valori mancanti tramite pandas e un test con pytest o con assert. Per compiti agentici (modifica di piu' file, esecuzione di comandi) conviene usare il modello dentro un agente come quelli da terminale gia' diffusi, indicando DeepSeek come provider.

Quando ha senso sceglierlo

DeepSeek V4-Pro e' una buona scelta se cercate prestazioni elevate sul codice e sul ragionamento spendendo poco, se vi serve un contesto molto lungo, o se volete la possibilita' di self-hosting e una licenza commerciale senza vincoli. Resta valida l'avvertenza di sempre per i modelli sviluppati in Cina: per dati sensibili o regolati valutate con attenzione dove vengono elaborati (l'API gira su server in Cina) e considerate il self-hosting o un fornitore che offra il modello su infrastruttura europea. Per uso personale, prototipazione e sviluppo, e' oggi una delle opzioni con il miglior rapporto qualita'/prezzo sul mercato.