Anthropic identifie trois changements au niveau de la couche produit à l’origine de la baisse de qualité de Claude Code, et non un problème de modèle

Message de Gate News, 23 avril — L’équipe d’ingénierie d’Anthropic a confirmé que la dégradation de la qualité de Claude Code signalée par les utilisateurs au cours du mois écoulé provenait de trois changements indépendants au niveau de la couche produit, et non de problèmes liés à l’API ou au modèle sous-jacent. Les trois problèmes ont été corrigés respectivement les 7 avril, 10 avril et 20 avril, avec désormais une version finale en v2.1.116.

Le premier changement est intervenu le 4 mars, lorsque l’équipe a abaissé le niveau d’effort de raisonnement par défaut pour Claude Code de “high” à “medium” afin de traiter des pics de latence extrêmes occasionnels dans Opus 4.6 lorsque l’intensité de raisonnement est élevée. Après de nombreuses plaintes d’utilisateurs concernant une baisse des performances, l’équipe a annulé le changement le 7 avril. Le paramètre par défaut actuel est désormais “xhigh” pour Opus 4.7 et “high” pour les autres modèles.

Le second problème était un bug introduit le 26 mars. Le système était conçu pour effacer d’anciens enregistrements de raisonnement après que l’inactivité de la conversation dépassait une heure afin de réduire les coûts de récupération de session. Toutefois, une erreur dans l’implémentation a fait que l’effacement s’exécutait à répétition à chaque tour ultérieur, au lieu de s’exécuter une seule fois, ce qui a entraîné une perte progressive du contexte de raisonnement antérieur. Cela s’est manifesté par une augmentation de l’oubli, des opérations répétées et des invocations d’outils anormales. Le bug a également entraîné des ratés de cache à chaque requête, accélérant la consommation des quotas des utilisateurs. Deux expériences internes sans lien ont masqué les conditions de reproduction, prolongeant le processus de débogage à plus d’une semaine. Après la correction intervenue le 10 avril, l’équipe a examiné le code problématique à l’aide d’Opus 4.7 et a constaté qu’Opus 4.7 pouvait identifier le bug, contrairement à Opus 4.6.

Le troisième changement a été lancé le 16 avril en même temps que Opus 4.7. L’équipe a ajouté des instructions au prompt système pour réduire la sortie redondante. Les tests internes menés sur plusieurs semaines n’ont montré aucune régression, mais après le lancement, les interactions avec d’autres prompts ont dégradé la qualité du codage. Une évaluation prolongée a révélé une baisse de 3 % des performances pour Opus 4.6 et 4.7, entraînant un rollback le 20 avril.

Ces trois changements ont touché différents groupes d’utilisateurs à des moments différents, et leur effet combiné a entraîné une baisse de qualité généralisée et incohérente, compliquant le diagnostic. Anthropic a indiqué qu’elle exigera désormais que davantage d’employés internes utilisent la même version de build publique que les utilisateurs, qu’ils exécutent des suites complètes d’évaluation du modèle pour chaque modification de prompt système et qu’ils mettent en œuvre des périodes de déploiement progressif. En guise de compensation, Anthropic a réinitialisé les quotas d’utilisation pour tous les utilisateurs disposant d’un abonnement.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Meta Platforms prévoit une réduction de 10 % de ses effectifs le 20 mai, affectant environ 8 000 postes

Message d’actualité Gate News, 24 avril — Meta Platforms prévoit de réduire ses effectifs d’environ 10 %, touchant environ 8 000 postes, le 20 mai. Les licenciements visent à améliorer l’efficacité opérationnelle tout en augmentant les investissements dans l’intelligence artificielle. La restructuration prévue reflète le

GateNewsIl y a 39m

Le gouvernement Trump publie un plan visant à lutter contre le raffinage de l’IA, accusant des entreprises chinoises de voler systématiquement les capacités des modèles

Le conseiller du président pour la politique technologique au sein du Bureau de la politique technologique de la Maison-Blanche (OSTP), Michael J. Kratsios, a publié le 23 avril une déclaration officielle indiquant que l’administration Trump dispose d’informations montrant que des entités étrangères (principalement basées en Chine) visent délibérément de grandes entreprises américaines d’intelligence artificielle, en extrayant systématiquement les capacités des modèles d’IA américains via « des dizaines de milliers de comptes d’agents » et des systèmes de jailbreak, tout en annonçant simultanément quatre mesures de riposte.

MarketWhisperIl y a 1h

DeepSeek lance une version d’aperçu open source V4, avec une note technique de 3206 dépassant GPT-5.4

DeepSeek a officiellement lancé le 24 avril une série de préversion de V4, sous licence MIT et publiée en open source, avec des poids de modèle mis en ligne sur Hugging Face et ModelScope. D’après le rapport technique de DeepSeek V4, V4-Pro-Max (mode avec le plus haut niveau de puissance d’inférence) a obtenu 3206 points sur le benchmark Codeforces, dépassant GPT-5.4.

MarketWhisperIl y a 1h

Cambricon finalise l’adaptation Day 0 de DeepSeek-V4, une étape majeure pour l’écosystème de puces IA de la Chine

Message de Gate News, 24 avril — Cambricon a annoncé aujourd’hui avoir achevé l’adaptation Day 0 de DeepSeek-V4, le dernier grand modèle de langage de DeepSeek, en utilisant son écosystème logiciel propriétaire NeuWare et le framework vLLM. Le code d’adaptation a été open-sourcé simultanément, marquant le

GateNewsIl y a 1h

Tencent lance Hy3 en version d’aperçu open source, les tests de référence du code améliorent de 40 % par rapport à l’ancienne version

Tencent a officiellement publié en open source le modèle de langage de grande taille Hy3 (version d’aperçu) sur GitHub, Hugging Face et ModelScope le 23 avril, et a également proposé un service d’API payant via le cloud de Tencent (Tencent Cloud). D’après un rapport de Decrypt daté du 24 avril, la version d’aperçu de Hy3 a été lancée pour l’entraînement à la fin du mois de janvier et, au moment de la date de publication, moins de trois mois s’étaient écoulés.

MarketWhisperIl y a 1h

Les investissements de portefeuille de FTX d’une valeur de 158 000 milliards de won s’ils n’avaient pas fait faillite

FTX, la bourse centralisée de cryptomonnaies qui a déposé une demande de protection contre la faillite au titre du Chapter 11 en novembre 2022 en raison de pénuries de liquidités et de sorties de capitaux, aurait conservé des investissements évalués à environ 158,796 billions de won si elle n'avait pas fait faillite, selon une analyse citée par Park

CryptoFrontierIl y a 1h
Commentaire
0/400
Aucun commentaire