Mensaje de Gate News, 23 de abril — El equipo de ingeniería de Anthropic confirmó que la degradación de la calidad de Claude Code reportada por los usuarios durante el mes pasado se debió a tres cambios independientes a nivel de producto, no a problemas de la API ni del modelo subyacente. Los tres problemas se solucionaron el 7 de abril, el 10 de abril y el 20 de abril, respectivamente, con la versión final ahora en v2.1.116.
El primer cambio ocurrió el 4 de marzo, cuando el equipo redujo el nivel de esfuerzo de razonamiento predeterminado para Claude Code de “high” a “medium” para abordar picos ocasionales de latencia extrema en Opus 4.6 bajo alta intensidad de razonamiento. Después de quejas generalizadas de los usuarios sobre el rendimiento reducido, el equipo revirtió el cambio el 7 de abril. El valor predeterminado actual es ahora “xhigh” para Opus 4.7 y “high” para otros modelos.
El segundo problema fue un bug introducido el 26 de marzo. El sistema estaba diseñado para borrar registros antiguos de razonamiento después de que la inactividad de la conversación superara una hora para reducir los costos de recuperación de sesión. Sin embargo, una falla en la implementación hizo que el borrado se ejecutara repetidamente en cada turno posterior en lugar de una sola vez, lo que provocó que el modelo perdiera progresivamente el contexto de razonamiento previo. Esto se manifestó como un aumento de la falta de memoria, operaciones repetidas e invocaciones anómalas de herramientas. El bug también provocó fallos de caché en cada solicitud, acelerando el consumo de la cuota de los usuarios. Dos experimentos internos no relacionados enmascararon las condiciones de reproducción, extendiendo el proceso de depuración a más de una semana. Después de la corrección el 10 de abril, el equipo revisó el código problemático usando Opus 4.7 y descubrió que Opus 4.7 podía identificar el bug, mientras que Opus 4.6 no.
El tercer cambio se lanzó el 16 de abril junto con Opus 4.7. El equipo agregó instrucciones al mensaje del sistema para reducir la salida redundante. Las pruebas internas durante varias semanas no mostraron regresión, pero después del lanzamiento la interacción con otros prompts degradó la calidad de la codificación. La evaluación extendida reveló una caída del 3% en el rendimiento tanto en Opus 4.6 como en 4.7, lo que llevó a un rollback el 20 de abril.
Estos tres cambios afectaron a diferentes grupos de usuarios en distintos momentos, y su efecto combinado creó una caída generalizada e inconsistente de la calidad, complicando el diagnóstico. Anthropic afirmó que ahora requerirá a más empleados internos que usen la misma versión pública de compilación que los usuarios, que ejecuten suites completas de evaluación del modelo para cada modificación del prompt del sistema y que implementen periodos de despliegue por etapas. Como compensación, Anthropic ha restablecido las cuotas de uso para todos los usuarios con suscripción.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
OpenAI lanza GPT-5.5, diseñado para tareas de agentes y flujos de trabajo complejos
Mensaje de Gate News, 24 de abril — OpenAI ha lanzado oficialmente GPT-5.5, un modelo de IA de próxima generación diseñado para gestionar objetivos complejos, integración de herramientas, auto-verificación y finalización de tareas de múltiples pasos. El modelo sobresale en la redacción de código y la depuración, la investigación en línea, el análisis de datos, la creación de documentos
GateNewsHace5m
Las ganancias de Intel superan las expectativas, la demanda de IA impulsa el repunte de las CPU; tras que Chen Liwu asumiera el cargo, INTC ya ha subido 3 veces
Intel ingresa por trimestre de 13,600 millones de dólares, EPS 0.29; el segundo trimestre, las previsiones del punto medio son 14,300 millones, superando con creces las expectativas, con un margen bruto del 41%. La demanda de centros de datos de IA impulsa la recuperación del CPU; servidores como Xeon están siendo favorecidos. Chen Liwu lidera la transformación; IFS en el primer trimestre 5,400 millones de dólares, creciendo 16%; clientes externos como Tesla están observando el uso de la tecnología de Intel en Terafab. Después del cierre, el precio de la acción sube alrededor de 20%, marcando un máximo histórico; desde el año pasado ya ha subido cerca de 3 veces.
ChainNewsAbmediaHace17m
Cognition AI consigue financiación con una valoración de $25B en negociaciones en etapa inicial
Mensaje de Gate News, 24 de abril: Cognition AI, una startup de codificación con IA, se encuentra en negociaciones iniciales para una nueva ronda de financiación que, según fuentes familiarizadas con el asunto, más que duplicaría su valoración hasta $25 mil millones. La empresa busca recaudar cientos de millones de dólares o más, ya que
GateNewshace1h
NEC 株式会社 se convierte en el primer socio global de Anthropic en Japón
NEC anuncia convertirse en el primer socio global de Anthropic en Japón, y ambas partes desarrollarán soluciones de IA seguras y con conocimientos del sector para industrias altamente reguladas, como las de finanzas, manufactura y gobiernos locales, integrando además la serie Claude en NEC BluStellar, con foco en la transformación de la gestión impulsada por datos y la experiencia del cliente. Al mismo tiempo, introducen Claude Cowork y la integración con SOC para mejorar la protección de ciberseguridad. Para verificar la efectividad, NEC inicia el plan de clientes 0 a nivel interno para realizar pruebas integrales de agentes de IA, y planea promover la implementación de Claude a nivel global, estableciendo el mayor CoE de ingenieros nativos de IA en Japón.
ChainNewsAbmediahace3h
La brecha de seguridad de Vercel se expande a cientos de usuarios; los desarrolladores de IA corren un mayor riesgo
Mensaje de Gate News, 23 de abril — Vercel reveló el 19 de abril que su incidente de seguridad, inicialmente descrito como que afectaba a un "subconjunto limitado de clientes", se ha expandido a una comunidad de desarrolladores mucho más amplia, en particular a quienes construyen flujos de trabajo de agentes de IA. El ataque podría afectar a cientos de usuarios
GateNewshace5h
OpenAI presenta GPT-5.5: 12M de contexto, el índice AA llega al primer puesto, Terminal-Bench 82,7% reescribe el punto de referencia de los agentes
OpenAI publica GPT-5.5, con enfoque en el trabajo basado en agentes y el procesamiento de conocimientos empresariales, y lo lanza simultáneamente en ChatGPT y Codex. Los aspectos clave incluyen una ventana de contexto de 12 millones de tokens, el AA Intelligence Index 60, con rendimiento por delante de Claude Opus 4.7 y Gemini 3.1 Pro; el precio es de 5 dólares por cada millón de tokens de entrada y 30 dólares por cada millón de tokens de salida. La cantidad de tokens de salida disminuye aproximadamente un 40% y el costo real aumenta aproximadamente un 20%.
ChainNewsAbmediahace6h