Anthropic Identifica Três Alterações na Camada de Produto por Detrás da Queda da Qualidade do Claude Code, e Não um Problema do Modelo

Mensagem do Gate News, 23 de abril — A equipa de engenharia da Anthropic confirmou que a degradação da qualidade do Claude Code reportada pelos utilizadores ao longo do último mês resultou de três alterações independentes na camada de produto, e não de problemas na API ou no modelo subjacente. Os três problemas foram corrigidos a 7 de abril, 10 de abril e 20 de abril, respetivamente, com a versão final agora na v2.1.116.

A primeira alteração ocorreu a 4 de março, quando a equipa reduziu o nível de esforço de raciocínio predefinido do Claude Code de “high” para “medium” para abordar picos ocasionais e extremos de latência no Opus 4.6 sob elevada intensidade de raciocínio. Após reclamações generalizadas de utilizadores sobre desempenho reduzido, a equipa reverteu a alteração em 7 de abril. O valor predefinido atual é agora “xhigh” para o Opus 4.7 e “high” para outros modelos.

O segundo problema foi um bug introduzido a 26 de março. O sistema foi concebido para limpar registos antigos de raciocínio após a inatividade na conversa exceder uma hora, de modo a reduzir os custos de recuperação da sessão. No entanto, uma falha na implementação fez com que a limpeza fosse executada repetidamente em cada turno subsequente em vez de uma única vez, levando o modelo a perder progressivamente o contexto de raciocínio anterior. Isso manifestou-se como aumento de esquecimento, operações repetidas e invocações anormais de ferramentas. O bug também resultou em faltas de cache em cada pedido, acelerando o consumo das quotas dos utilizadores. Dois testes internos não relacionados mascararam as condições de reprodução, alargando o processo de depuração para mais de uma semana. Após a correção em 10 de abril, a equipa analisou código problemático usando o Opus 4.7 e verificou que o Opus 4.7 conseguia identificar o bug, enquanto o Opus 4.6 não conseguia.

A terceira alteração foi lançada a 16 de abril em conjunto com o Opus 4.7. A equipa adicionou instruções ao prompt do sistema para reduzir a saída redundante. Testes internos ao longo de várias semanas não mostraram regressão, mas após o lançamento, a interação com outros prompts degradou a qualidade da codificação. Uma avaliação alargada revelou uma queda de 3% no desempenho tanto no Opus 4.6 como no 4.7, levando a uma reversão a 20 de abril.

Estas três alterações afetaram grupos de utilizadores diferentes em momentos diferentes, e o efeito combinado criou uma queda de qualidade generalizada e inconsistente, dificultando o diagnóstico. A Anthropic afirmou que agora será necessário envolver mais funcionários internos para utilizarem a mesma versão pública de compilação que os utilizadores, executarem conjuntos completos de avaliação do modelo para cada modificação de prompt do sistema e implementarem períodos de rollout faseado. Como compensação, a Anthropic repôs as quotas de utilização de todos os utilizadores com subscrição.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Meta Platforms prevê uma redução de 10% do quadro de pessoal a 20 de maio, afectando aproximadamente 8.000 posições

Mensagem do Gate News, 24 de abril — A Meta Platforms planeia reduzir o seu quadro de pessoal em aproximadamente 10%, afectando cerca de 8.000 postos de trabalho, a 20 de maio. Os despedimentos têm como objectivo melhorar a eficiência operacional, ao mesmo tempo que aumentam o investimento em inteligência artificial. A reestruturação planeada reflecte

GateNews39m atrás

O Governo Trump anunciou um plano de combate à extração de IA, acusando as empresas chinesas de roubo sistemático das capacidades dos modelos

O Gabinete de Política Tecnológica da Casa Branca (OSTP), o assessor presidencial Michael J. Kratsios, emitiu, a 23 de abril, um comunicado oficial, afirmando que a administração Trump tem informação, indicando que entidades estrangeiras (principalmente na China) estão a visar deliberadamente grandes empresas de IA dos EUA, através da extração sistemática de capacidades dos modelos de IA dos EUA por meio de “dezenas de milhares de contas de agentes” e sistemas de tecnologia de jailbreaking, e divulgando em simultâneo quatro medidas de resposta.

MarketWhisper1h atrás

A DeepSeek lançou uma pré-visualização de código aberto da V4, com uma pontuação técnica de 3206, superando o GPT-5.4

A DeepSeek lançou oficialmente a série de pré-visualização V4 em 24 de abril, com código aberto sob a licença MIT, e os pesos do modelo foram disponibilizados na Hugging Face e na ModelScope. De acordo com o relatório técnico da DeepSeek V4, o V4-Pro-Max (modo de máxima força de inferência) obteve 3206 pontos no benchmark do Codeforces, ultrapassando o GPT-5.4.

MarketWhisper1h atrás

Cambricon Conclui a Adaptação Day 0 do DeepSeek-V4, Marco para o Ecossistema de Chips de IA da China

Mensagem do Gate News, 24 de Abril — A Cambricon anunciou hoje que concluiu a adaptação Day 0 do DeepSeek-V4, o mais recente modelo de linguagem grande da DeepSeek, utilizando o seu ecossistema proprietário de software NeuWare e o framework vLLM. O código de adaptação foi simultaneamente disponibilizado como open-source, assinalando o

GateNews1h atrás

A Tencent disponibiliza como open source o Hy3 (versão de pré-visualização), com testes de referência do código melhorados em 40% face à geração anterior

A Tencent abriu oficialmente em código aberto o modelo linguístico de grande dimensão Hy3 em versão de pré-visualização a 23 de abril nas plataformas GitHub, Hugging Face e ModelScope, e disponibilizou em simultâneo um serviço de APIs pagas no seu serviço de nuvem (Tencent Cloud). Segundo a Decrypt, a 24 de abril, a versão de pré-visualização Hy3 iniciou o treino em finais de janeiro e, aquando do calendário de publicação, tinha menos de três meses.

MarketWhisper1h atrás

Investimentos da Carteira da FTX no Valor de 158 biliões Won se não tivesse falido

FTX, a bolsa centralizada de criptomoedas que pediu proteção contra falência ao abrigo do Capítulo 11 em novembro de 2022 devido a escassez de liquidez e saídas de capital, teria mantido investimentos avaliados em aproximadamente 158.796 biliões de won se não tivesse entrado em colapso, de acordo com uma análise citada por Park

CryptoFrontier1h atrás
Comentar
0/400
Nenhum comentário