Era nell’aria da mesi, e alla fine è arrivato: DeepSeek ha lanciato la versione preview di V4, e come ci si aspettava da un’azienda che ha già ridisegnato l’economia dell’AI, il colpo non delude. Il nuovo modello si presenta in due varianti, DeepSeek-V4-Pro e DeepSeek-V4-Flash, entrambi open source e rilasciati su Hugging Face con licenza MIT. Ma non lasciatevi ingannare dall’etichetta “preview”: quella che avete davanti è una piattaforma che fonde potenza bruta, intelligenza artificiale autonoma e un rapporto qualità-prezzo semplicemente fuori scala.

In un panorama affollato da GPT-5.5, Claude Opus 4.7 e Gemini 3.2 Pro, l’ambizione di DeepSeek è chiara: non vincere in ogni singola metrica, ma ridefinire le regole del gioco. E, sotto molti aspetti, ci sta riuscendo guardando ai fatti concreti: performance, costo, ecosistema e quel pizzico di tensione geopolitica che rende tutto più interessante.

Un gigante open source a un prezzo stracciato

Partiamo dai numeri, perché in questo caso sono tutt’altro che noiosi. Il modello di punta, DeepSeek-V4-Pro, monta un’architettura MoE (Mixture of Experts) con 1.6oo miliardi di parametri totali, di cui 49 miliardi attivi durante l’inferenza. Per dare un termine di paragone: supera la già mastodontica versione V3.2 dell’azienda, attestata a circa 671 miliardi di parametri. Il fratello minore V4-Flash, invece, si ferma a 284 miliardi totali e 13 miliardi attivi, puntando tutto su velocità e costi ridotti.

Quello che però stupisce non è tanto la quantità di parametri, quanto l’efficienza. Con una finestra di contesto di 1 milione di token di serie per entrambi i modelli, DeepSeek ha introdotto una nuova architettura di attenzione ibrida che riduce drasticamente il carico computazionale. Rispetto a V3.2, il Pro consuma solo il 27% dei FLOPs per token e usa appena il 10% della KV Cache a parità di contesto lungo; il Flash scende addirittura al 10% e al 7%. Tradotto in italiano: processare un’intera codebase o un romanzo richiede meno risorse di quanto ce ne volesse prima per un semplice capitolo. È il tipo di innovazione che trasforma l’impossibile in routine.

Sul piano delle prestazioni pure, i benchmark ufficiali parlano chiaro. In coding e matematica, V4-Pro è il miglior modello open source attuale. Su Apex Shortlist, un test di problem-solving complesso, tocca il 90,2%, e su Codeforces registra un rating di 3206, un risultato da top player mondiale che tiene testa ai giganti chiusi. Nelle prove di conoscenza generale, però, il modello accusa un ritardo di circa 3-6 mesi rispetto ai leader del settore come OpenAI e Anthropic. È un gap che esiste, ma che in molti sensi diventa irrilevante di fronte a un altro aspetto.

Veniamo infatti al prezzo. L’API di DeepSeek-V4-Flash costa 0,14 dollari per milione di token in input e 0,28 per l’output, mentre la versione Pro arriva a 0,145 dollari in input e 3,48 in output. Per capirci, stiamo parlando di costi da 18 a 36 volte inferiori a GPT-4o. Non è un’offerta promozionale: è una dichiarazione di guerra economica. E con la promessa che “entro fine anno i prezzi del Pro scenderanno ulteriormente”, il 2026 si preannuncia come l’anno del crollo definitivo delle barriere all’ingresso nell’AI di fascia alta.

Offerta

Tenda Nova MW6 WiFi Mesh

67.87€ invece di 119.99€
-43%

L’arma geopolitica nel motore

Il vero colpo di scena, però, sta nel silicio. Per addestrare e far funzionare V4, DeepSeek ha lavorato a stretto contatto con Huawei e i suoi chip Ascend, abbandonando praticamente NVIDIA per questa generazione. L’intera architettura software è stata spostata dal collaudato ecosistema CUDA al framework CANN di Huawei, e i tecnici parlano di piena compatibilità con la piattaforma Ascend. È la prima volta che un modello di questa portata (trilioni di parametri) viene distribuito su una filiera di calcolo completamente cinese. Jensen Huang lo ha definito “un risultato disastroso per gli Stati Uniti”, e in un certo senso non si sbaglia: perché l’embargo tecnologico, quello che avrebbe dovuto rallentare la Cina, ha invece accelerato la nascita di un’alternativa indigena all’egemonia di NVIDIA.

Questa scelta non è priva di conseguenze. Al momento, la capacità di calcolo per la versione Pro è limitata, tanto che DeepSeek frena le aspettative sulla velocità del servizio. Ma il segnale è inequivocabile: l’indipendenza tecnologica è diventata un obiettivo primario, anche a costo di sacrificare un po’ di reattività iniziale. E se tutto questo vi ricorda qualcosa, avete ragione: con R1, un anno fa, DeepSeek aveva già cancellato 600 miliardi di dollari dal valore di mercato di NVIDIA in un solo giorno. Con V4, l’impatto potrebbe farsi sentire a cascata su tutto l’indotto hardware.

C’è poi l’altro fronte, quello politico. Il lancio di V4 arriva il giorno dopo che l’amministrazione USA ha accusato la Cina di “furto su scala industriale” di proprietà intellettuale AI. DeepSeek, come altre aziende cinesi, ha sempre respinto le accuse, ma resta il fatto che la tensione non accenna a diminuire. Eppure, nonostante il clima di sospetto, l’agenzia di stampa cinese Global Times non ha perso tempo a sottolineare la “superiorità in termini di costo-efficacia” di V4, e che il modello open source rappresenta la scelta giusta per favorire un progresso condiviso. Insomma, la guerra fredda dell’AI è ufficialmente iniziata, e DeepSeek si è presentata con un arsenale pieno zeppo.

Per chiudere il cerchio, non possiamo ignorare la dimensione “agentica” di V4. L’azienda ha ottimizzato entrambi i modelli per Claude Code, OpenClaw e CodeBuddy, trasformandoli in strumenti attivi in grado di completare flussi di lavoro complessi con minima supervisione. Secondo i test interni di DeepSeek, l’esperienza d’uso reale in attività di agentic coding è addirittura superiore a Sonnet 4.5 e si avvicina a Opus 4.6 in modalità non di pensiero. E la versione Flash, pur con qualche limite sui compiti più ardui, tiene testa alla Pro nelle attività semplici, garantendo una reattività impressionante.

Qual è il verdetto, dunque? V4 non sarà il modello che surclassa tutti i rivali su ogni singolo test di conoscenza enciclopedica. Ma chi ha bisogno di sapere l’esatta popolazione della Lettonia nel 1897 quando può avere un assistente di programmazione quasi gratis, con un milione di token di contesto e un’architettura che non dipende più dai chip statunitensi? DeepSeek-V4 è la conferma che l’open source non è solo una questione di etica, ma anche di strategia, e che la battaglia per l’AI del futuro si gioca tanto sui dataset quanto sul silicio.