DeepSeek V4: Novo modelo de IA que reduz a distância para os líderes do setor

DeepSeek apresenta avanços significativos com o lançamento do V4
A DeepSeek, laboratório chinês de inteligência artificial, divulgou recentemente duas versões prévias do seu mais recente modelo de linguagem de grande porte, o DeepSeek V4. Esta atualização sucede o modelo V3.2 e seu modelo de raciocínio R1, que já causaram impacto no cenário da IA. A novidade traz melhorias arquiteturais que prometem maior eficiência e desempenho, aproximando o DeepSeek dos modelos de ponta atualmente disponíveis no mercado.
Problema e abordagem técnica
Em um mercado altamente competitivo, a DeepSeek buscou superar limitações de custo e desempenho presentes em versões anteriores. Para isso, adotou a arquitetura "mixture-of-experts" (MoE), que ativa apenas uma fração dos parâmetros para cada tarefa, reduzindo o custo de inferência sem comprometer a capacidade do modelo. Essa estratégia permite que o DeepSeek V4 manipule janelas de contexto gigantescas, de até 1 milhão de tokens, possibilitando o processamento de grandes bases de código ou documentos complexos.

Modelos e especificações
- DeepSeek V4 Pro: possui 1,6 trilhão de parâmetros, dos quais 49 bilhões são ativos por tarefa, sendo o maior modelo de peso aberto disponível atualmente. Supera concorrentes como Moonshot AI Kimi K 2.6 (1,1 trilhão) e MiniMax M1 (456 bilhões), além de mais que dobrar o tamanho do DeepSeek V3.2 (671 bilhões).
- DeepSeek V4 Flash: versão menor com 284 bilhões de parâmetros, dos quais 13 bilhões são ativados por tarefa, oferecendo uma opção mais acessível e ainda potente.
Resultados e benchmarks
Segundo a DeepSeek, ambos os modelos são mais eficientes e apresentam desempenho superior ao DeepSeek V3.2, graças às melhorias arquiteturais. Nos benchmarks de raciocínio, os novos modelos "quase fecharam a lacuna" em relação aos líderes do setor, tanto modelos abertos quanto fechados.
O DeepSeek V4 Pro Max, uma versão ainda maior, teria desempenho superior a modelos de código aberto concorrentes e supera o GPT-5.2 da OpenAI e o Gemini 3.0 Pro do Google em algumas tarefas específicas. Em competições de código, o desempenho dos modelos V4 é comparável ao do GPT-5.4. Entretanto, em testes de conhecimento, o V4 ainda fica atrás dos modelos de ponta GPT-5.4 e Gemini 3.1 Pro, indicando um atraso de desenvolvimento estimado entre 3 a 6 meses em relação a esses concorrentes.
Limitações atuais
Os modelos DeepSeek V4 suportam apenas entrada e saída de texto, diferentemente de muitos modelos fechados que já trabalham com áudio, vídeo e imagens. Essa limitação pode restringir o uso em aplicações multimodais, uma tendência crescente no setor de IA.
Impacto prático e custo
Um dos diferenciais do DeepSeek V4 é o custo competitivo. A versão Flash custa US$ 0,14 por milhão de tokens de entrada e US$ 0,28 por milhão de tokens de saída, valores inferiores aos de concorrentes como GPT-5.4 Nano, Gemini 3.1 Flash e Claude Haiku 4.5. Já o modelo Pro tem custo de US$ 0,145 por milhão de tokens de entrada e US$ 3,48 por milhão de saída, também mais barato que Gemini 3.1 Pro, GPT-5.5 e Claude Opus 4.7.
Contexto e controvérsias
O lançamento do DeepSeek V4 ocorre em meio a acusações dos EUA contra a China por suposto roubo de propriedade intelectual de laboratórios americanos de IA em larga escala. A DeepSeek foi acusada por empresas como Anthropic e OpenAI de "destilação" — uma forma de copiar seus modelos de IA. Essas controvérsias refletem a intensa competição e tensões geopolíticas na área de inteligência artificial.