A DeepSeek aproveitou o lançamento do GPT-5.5 pela OpenAI para lançar o V4, um modelo de código aberto com 1,6 trilhão de parâmetros que custa de 7 a 9 vezes menos que seus rivais americanos. O tipo de momento que você não escolhe por acaso.

Quinta-feira, 23 de abril, a OpenAI estende o tapete vermelho do GPT-5.5, seu modelo mais caro já lançado. Poucas horas depois, DeepSeek lança seu peso sobre Hugging Face sob licença do MIT, sem conferência, sem teaser, sem CEO. Apenas um link, um preço e 1,6 trilhão de parâmetros para download. Em suma, o método chinês em todo o seu esplendor, sabotando a festa sem sequer se convidar.
DeepSeek V4 vem em duas versões, Pro e Flash, ambas misturadas por especialistas com 1 milhão de tokens de contexto. O princípio, basicamente, é um modelo gigante dividido em “experts” especializados, dos quais apenas uma pequena fração é acionada a cada solicitação. Mantemos o poder de um rolo compressor sem pagar o custo de cálculo todas as vezes.

O Pro alinha 1,6 bilhão de parâmetros no total, dos quais apenas 49 bilhões são usados por consulta. O que o torna, no papel, o maior modelo de código aberto do mercado, à frente do Kimi K2.6 da Moonshot (1,1 bilhão) e mais que o dobro do anterior V3.2 (671 bilhões). O Flash, mais modesto, roda em 284 bilhões de parâmetros, dos quais 13 bilhões estão ativados. Ambos podem ser baixados gratuitamente sob a licença do MIT e a API já está aberta.
Um preço que ridiculariza a concorrência, só que tem asteriscos
O verdadeiro tapa na cara é a conta. O V4 Pro paga US$ 1,74 por milhão de tokens para entrada e US$ 3,48 para saída. Compare com os 5 dólares / 25 dólares de Claude Opus 4.7, ou com os preços do GPT-5.5 que sobem ainda mais. Estamos a falar de uma proporção de 7 para 9, em desvantagem para os americanos.
Do lado do Flash, é ainda mais brutal, 0,14 dólares / 0,28 dólares por milhão, mais barato que o GPT-5.4 Nano ou Claude Haiku 4.5. Para se ter uma ideia, o processamento de 100 milhões de tokens de saída custa cerca de US$ 348 na DeepSeek, em comparação com US$ 2.500 na Anthropic. A diferença são os salários de uma pequena empresa ao longo de um ano.

Nos benchmarks, o V4 Pro supera todos os modelos de código aberto em matemática, codificação e raciocínio, e passa no GPT-5.4 no Codeforces com uma pontuação de 3206. Mas em tarefas de conhecimento factual puro e benchmarks de conhecimento (HLE, SimpleQA), Gemini 3.1 Pro e GPT-5.4 mantêm a liderança. A própria DeepSeek admite que seu modelo “fica de 3 a 6 meses” atrás da fronteira americana. E um pequeno detalhe que conta, o V4 só gerencia texto. Sem imagem, sem áudio, sem vídeo, ao contrário de quase todos os modelos fechados que já fazem multimodal há algum tempo.
Para quem, para quê e o que há de errado
Concretamente, o V4 tem como alvo desenvolvedores e empresas que lidam com grandes volumes, equipes que desejam auto-hospedar um modelo sem enviar suas solicitações a Sam Altman e países que preferem evitar a dependência total do Vale do Silício.
O argumento da licença do MIT é enorme para finanças, saúde ou jurídico.
Já para o usuário final que conversa com um chatbot no telefone, o interesse é mais teórico. O V4 Pro pesa 865 GB para download, o que significa que ninguém irá executá-lo em casa. E a API oficial passa por servidores chineses, o que levanta as habituais questões de soberania dos dados.
Também é necessário observar o contexto político. O lançamento ocorre um dia depois das acusações dos EUA acusando a China de “roubo de propriedade intelectual em escala industrial” através de milhares de contas proxy.
Para ir mais longe
A China está clonando a IA americana? A Casa Branca acusa seu rival de saque industrial
A Anthropic e a OpenAI há muito criticam o DeepSeek por praticar “destilação”, em outras palavras, treinar seus modelos com base nos resultados deles. É difícil provar alguma coisa, mas o clima está tenso e o V4 não vai relaxar as relações.