Em 24 de abril, a empresa chinesa de Inteligência Artificial, DeepSeek, lançou uma prévia do V4, seu novo modelo carro-chefe, aguardado há muito tempo. O modelo consegue processar prompts muito mais longos do que a geração anterior, graças a um novo design que o ajuda a lidar com grandes volumes de texto com mais eficiência. Assim como os modelos anteriores da DeepSeek, o V4 é de código aberto, o que significa que está disponível para qualquer pessoa baixar, usar e modificar.
O V4 é o lançamento mais significativo da DeepSeek desde o R1, o modelo de raciocínio que ela lançou em janeiro de 2025. O R1, que foi treinado com recursos de computação limitados, surpreendeu a indústria global de IA com seu forte desempenho e eficiência, transformando a DeepSeek, quase da noite para o dia, de uma equipe de pesquisa pouco conhecida na empresa de IA mais conhecida da China. Também ajudou a desencadear uma onda de lançamentos de modelos com pesos abertos por outras empresas chinesas de IA.
Desde então, a DeepSeek manteve um perfil relativamente discreto, mas, no início deste mês, efetivamente deu pistas do lançamento do V4 ao adicionar os modos “expert” e “flash” à versão on-line de seu modelo, o que levou a especulações de que as atualizações estavam ligadas a um lançamento maior, que estava por vir.
Embora a empresa tenha se tornado um símbolo poderoso das ambições de IA da China, seu grande retorno aos modelos de fronteira de ponta acontece após meses de escrutínio, incluindo saídas importantes de pessoal, atrasos em lançamentos anteriores de modelos e um aumento do escrutínio tanto por parte dos governos dos EUA quanto da China.
Então, o V4 vai abalar o campo da IA como o R1 fez? Quase certamente não, mas aqui estão três grandes razões pelas quais este lançamento importa.
1. Ele abre novos caminhos para um modelo de código aberto
Assim como aconteceu com o R1, a DeepSeek afirma que o desempenho do V4 rivaliza com o dos melhores modelos disponíveis, a uma fração do preço. Isso é uma ótima notícia para desenvolvedores e para empresas que usam a tecnologia, porque significa que eles podem acessar capacidades de IA de fronteira em seus próprios termos, sem se preocupar com custos disparando.
O novo modelo chega em duas versões, ambas disponíveis no site da DeepSeek e em seu aplicativo, com acesso por API também aberto a desenvolvedores. O V4-Pro é um modelo maior, criado para programação e tarefas complexas de agentes, e o V4-Flash é uma versão menor, projetada para ser mais rápida e mais barata de operar. Ambas as versões oferecem modos de raciocínio, nos quais o modelo pode analisar cuidadosamente o prompt do usuário e mostrar cada etapa enquanto trabalha para resolver o problema.
Para o V4-Pro, a DeepSeek cobra US$ 1,74 por milhão de tokens de entrada e US$ 3,48 por milhão de tokens de saída, uma fração do custo de modelos comparáveis da OpenAI e da Anthropic. O V4-Flash é ainda mais barato, cerca de US$ 0,14 por milhão de tokens de entrada e cerca de US$ 0,28 por milhão de tokens de saída, o que o torna um dos modelos de primeira linha mais baratos disponíveis. Isso o tornaria um modelo muito atraente para desenvolver aplicações.
Em termos de desempenho, o V4 é, talvez sem surpresa, um salto enorme em relação ao R1, e parece ser uma alternativa forte a praticamente todos os mais recentes grandes modelos de IA. Nos principais benchmarks, de acordo com resultados compartilhados pela empresa, o DeepSeek V4-Pro compete com modelos líderes de código fechado, igualando o desempenho do Claude-Opus-4.6, da Anthropic, do GPT-5.4, da OpenAI, e do Gemini-3.1, do Google. E, em comparação com outros modelos de código aberto, como o Qwen-3.5, da Alibaba, ou o GLM-5.1, da Z.ai, o DeepSeek V4 supera todos eles em programação, matemática e problemas de STEM, tornando-se um dos modelos de código aberto mais fortes já lançados.
A DeepSeek também diz que o V4-Pro agora figura entre os modelos de código aberto mais fortes em benchmarks de tarefas de programação com agentes e tem bom desempenho em outros testes que medem a capacidade de executar problemas em múltiplas etapas. Sua capacidade de escrita e seu conhecimento de mundo também lideram o campo, de acordo com resultados de benchmarking compartilhados pela empresa.
Em um relatório técnico divulgado junto com o modelo, a DeepSeek compartilhou resultados de uma pesquisa interna com 85 desenvolvedores experientes: mais de 90% incluíram o V4-Pro entre suas principais escolhas de modelo para tarefas de programação.
A DeepSeek diz que otimizou especificamente o V4 para frameworks populares de agentes, como Claude Code, OpenClaw e CodeBuddy.
2. Ele entrega uma nova abordagem de eficiência de memória
Uma das principais inovações do V4 é sua longa janela de contexto, a quantidade de texto que o modelo consegue processar de uma só vez. Ambas as versões conseguem lidar com 1 milhão de tokens, o que é grande o suficiente para acomodar os três volumes de O Senhor dos Anéis e O Hobbit juntos. A empresa afirma que esse tamanho de janela de contexto agora é o padrão em todos os serviços da DeepSeek e corresponde ao que é oferecido por versões de ponta de modelos como Gemini e Claude.
Mas é importante saber não apenas que a DeepSeek deu esse salto, e sim como ela fez isso. O V4 faz mudanças arquiteturais significativas em relação aos modelos anteriores da empresa, especialmente no mecanismo de atenção, o recurso dos modelos de IA que os ajuda a entender cada parte de um prompt em relação ao restante. À medida que o texto do prompt fica mais longo, essas comparações se tornam muito mais custosas, tornando a atenção um dos principais gargalos para modelos de contexto longo.
A inovação da DeepSeek foi tornar o modelo mais seletivo em relação ao que ele presta atenção. Em vez de tratar todo o texto anterior como igualmente importante, o V4 comprime informações mais antigas e se concentra nas partes com maior probabilidade de importar no momento presente, ao mesmo tempo em que mantém o texto próximo em sua forma completa, para não deixar passar detalhes importantes.
A DeepSeek afirma que isso reduz drasticamente o custo de usar contexto longo. Em um contexto de 1 milhão de tokens, o V4-Pro usa apenas 27% do poder de computação exigido por seu modelo anterior, o V3.2, ao mesmo tempo em que reduz o uso de memória para 10%. A redução no V4-Flash é ainda maior, usando apenas 10% do poder de computação e 7% da memória. Na prática, isso pode baratear a construção de ferramentas que precisam trabalhar com enormes quantidades de material, como um assistente de programação por IA que consegue ler uma base de código inteira ou um agente de pesquisa que pode analisar um arquivo longo de documentos sem ficar esquecendo constantemente o que veio antes.
O interesse da DeepSeek em janelas de contexto longas não começou com o V4. Ao longo do último ano e meio, a empresa publicou discretamente uma série de artigos sobre como modelos de IA “lembram” informações, experimentando com compressão e técnicas matemáticas para estender o que os modelos de IA poderiam lidar de forma realista.
3. Ele marca os primeiros passos no caminho difícil para longe da Nvidia
O V4 é o primeiro modelo da DeepSeek otimizado para chips chineses, como o Ascend, da Huawei, um movimento que transformou o lançamento em uma espécie de teste sobre se a indústria de IA doméstica da China pode começar a reduzir sua dependência da gigante americana de chips Nvidia.
Isso já era, em grande parte, esperado, já que o The Information informou no início deste mês que a DeepSeek não deu a fabricantes americanos de chips como Nvidia e AMD acesso antecipado ao V4, embora o acesso antes do lançamento seja comum para permitir que fabricantes de chips otimizem o suporte ao novo modelo antes de seu lançamento. Em vez disso, a empresa teria dado acesso antecipado apenas a fabricantes chineses de chips.
Na sexta-feira, a Huawei disse que seus produtos de supernó, baseados na série Ascend 950, dariam suporte ao DeepSeek V4. Isso significa que empresas e indivíduos que queiram executar suas próprias versões modificadas do DeepSeek V4 poderão usar chips da Huawei com facilidade.
A Reuters informou anteriormente que autoridades do governo chinês recomendaram que a DeepSeek integrasse chips da Huawei em seu processo de treinamento. E essa pressão se encaixa em um padrão mais amplo da política industrial da China: setores estratégicos costumam ser incentivados e, às vezes, efetivamente obrigados, a se alinhar a objetivos nacionais de autossuficiência. Mas há uma urgência particular quando se trata de IA. Desde 2022, controles de exportação dos EUA cortaram o acesso de empresas chinesas aos chips mais poderosos da Nvidia, e depois também restringiram o acesso a versões rebaixadas para o mercado chinês. A resposta de Pequim foi acelerar o impulso por uma pilha doméstica de IA, de chips a frameworks de software e data centers.
Autoridades chinesas teriam pressionado data centers e projetos públicos de computação a usar mais chips domésticos, incluindo por meio de proibições relatadas de chips fabricados no exterior, cotas de aquisição e exigências de combinação de chips da Nvidia com alternativas chinesas de empresas como Huawei e Cambricon.
Ainda assim, substituir a Nvidia não é tão simples quanto trocar um chip por outro. A vantagem da Nvidia não está apenas em seus chips, mas no ecossistema de software que desenvolvedores passaram anos construindo ao redor deles. Migrar para os chips Ascend, da Huawei, significa adaptar o código do modelo, reconstruir ferramentas e provar que os sistemas construídos em torno desses chips são estáveis o suficiente para um uso sério.
Para deixar claro, a DeepSeek não parece ter ido totalmente além da Nvidia. O relatório técnico da empresa revela que ela está usando chips chineses para executar o modelo em inferência, ou seja, quando alguém pede ao modelo que conclua uma tarefa. Mas Liu Zhiyuan, professor de ciência da computação na Universidade Tsinghua, disse à MIT Technology Review que a DeepSeek parece ter adaptado apenas parte do processo de treinamento do V4 para chips chineses. O relatório não diz se alguns recursos-chave de contexto longo foram adaptados a chips domésticos, então, segundo Liu, o V4 pode ainda ter sido treinado principalmente em chips da Nvidia. Várias fontes que falaram sob condição de anonimato, devido à sensibilidade política em torno desses temas, disseram à MIT Technology Review que chips chineses ainda não têm desempenho tão bom quanto chips da Nvidia, mas são mais adequados para inferência do que para treinamento.
A DeepSeek também está vinculando os custos futuros do V4 a essa mudança de hardware. A empresa diz que os preços do V4-Pro podem cair significativamente depois que os supernós Ascend 950, da Huawei, começarem a ser enviados em escala, no segundo semestre deste ano.
Se isso funcionar, o V4 pode ser um sinal inicial de que a China está construindo com sucesso uma infraestrutura paralela de IA.



