O DeepSeek lança “modo de especialista” e “modo visual” — uma fase de aquecimento final antes da apresentação oficial do V4?

動區BlockTempo

DeepSeek, a 8 de abril, enviou discretamente um teste em três modos: rápido, especialista e visual, com divisão em três vias por necessidades, e a comunidade interpreta-o como o último “aquecimento” antes do lançamento oficial do V4.
(Antecedentes: DeepSeek V4 recusa a NVIDIA e vai atrás da Huawei! A Alibaba, ByteDance e a Tencent disputam a compra do chip 950PR da Hengteng)
(Informação de contexto: Até onde chegou a “batalha” da DeepSeek V4 ao abandonar a NVIDIA! A “independência do poder de computação” da IA chinesa consegue avançar?)

Índice do artigo

Toggle

  • Divisão em três vias: rápido, especialista e visual, cada um para a sua função
  • Controvérsia do modo especialista: é uma diferença de arquitetura ou engenharia de prompts?
  • O verdadeiro significado do V4: e se o poder de computação realmente se desligar

À 01:00 da madrugada do dia 8 de abril, o site e a aplicação da DeepSeek fizeram um envio sincronizado de uma atualização; a interface passou a ter três opções de modo. Isto não é um lançamento formal e completo de funcionalidades, mas sim um teste antecipado para parte dos utilizadores; no entanto, assim que a mensagem saiu, a comunidade ligou-o imediatamente ao cronograma de lançamento do V4.

Divisão em três vias: rápido, especialista e visual, cada um para a sua função

A distribuição entre os três modos é bastante clara:

Modo rápido (Fast Mode) é a opção predefinida, orientada para conversas do dia a dia e respostas em tempo real. Utiliza um modelo leve e de baixa latência; não há limites de utilização, mas o suporte de anexos é apenas para extração de texto, não processando imagem ou áudio.

Modo especialista (Expert Mode) está orientado para tarefas complexas de raciocínio, suportando um modo de pensamento profundo. Os testes da comunidade mostram que um único raciocínio pode despoletar mais de 500 segundos de tempo de pensamento. Este modo, nos períodos de pico, exige espera e não suporta anexos nem upload de voz. Neste momento, ainda se encontra em fase de testes, não estando aberto a todos os utilizadores.

Modo visual (Vision Mode) é, dos três, o que tem mais significado simbólico. É a primeira vez que a DeepSeek oferece suporte formal a entradas visuais no lado do consumidor; a capacidade multimodal deixa de ser apenas uma opção técnica ao nível de API e passa a estar diretamente voltada para utilizadores comuns.

A lógica geral é: dividir o consumo de capacidade de computação por tipo de tarefa; as necessidades de alta frequência e baixo consumo vão pelo canal rápido, o raciocínio de maior exigência de capacidade vai pelo canal de especialista, e as entradas de texto e imagem vão pelo canal visual. Esta conceção, por si só, não é novidade; ainda assim, a DeepSeek é o primeiro modelo de topo na China a fazê-lo ao nível de produto de consumo.

Controvérsia do modo especialista: é uma diferença de arquitetura ou engenharia de prompts?

A discussão da comunidade sobre este teste rapidamente se concentrou numa dúvida técnica.

Parte dos utilizadores que testaram descobriram que a qualidade das respostas no modo especialista melhora apenas ligeiramente face ao modo rápido, sem a diferença esperada. Mais importante, porém, é que alguns utilizadores perguntaram diretamente ao próprio modelo e receberam a resposta de que a arquitetura subjacente dos dois modos é a mesma; a diferença vem principalmente de ajustes ao system prompt.

Se isto for verdade, então a essência do “modo especialista” está mais próxima de um conjunto de prompts do sistema calibrado do que de um modelo de raciocínio independente.

A DeepSeek não respondeu oficialmente a esta acusação. Pelo ponto de vista externo, existem duas interpretações possíveis: primeiro, que isto é apenas uma configuração temporária da fase de “gradação”, e que a verdadeira divisão do modelo só será ativada depois de o V4 entrar em funcionamento; segundo, que o objetivo da divisão em camadas nunca foi uma comutação ao nível do modelo, mas sim controlar o consumo de capacidade de computação através de diferentes orçamentos de raciocínio e configurações do sistema, permitindo que mais utilizadores utilizem em simultâneo.

O verdadeiro significado do V4: e se o poder de computação realmente se desligar

A própria interface dos três modos é uma atualização ao nível da experiência do utilizador. Mas o peso real desta atualização está no V4 ligado por trás.

A equipa da DeepSeek já confirmou que o V4 foi adiado para abril, tendo como principal motivo o trabalho de adaptação profunda aos chips Ascend da Huawei. As especificações técnicas conhecidas são bastante ambiciosas: escala de 1 trilião de parâmetros, taxa de aprovação de 81% no teste de capacidade de codificação SWE-bench, preços de API de $0.30/MTok, e ainda uma tecnologia proprietária de memória de longo prazo: Engram. Um mecanismo de memória condicional que permite que o modelo conserve preferências do utilizador e o contexto entre conversas.

Mas o que mais vale a pena observar no V4, ainda assim, é a escolha da camada de base do poder de computação.

Se o V4 for realmente executado de forma completa em chips nacionais como a Huawei Ascend e o Cambricon, ele tornar-se-á o primeiro modelo grande mainstream no lado do consumo que escala, contornando totalmente o ecossistema NVIDIA CUDA (no entanto, como sabemos que há uma grande quantidade de chips NVIDIA contrafeitos a entrar na China, a situação real por trás é ainda mais complexa).

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários