Se revela que “Claude pierde capacidad” no es un mito urbano; el modelo de IA es inestable y representa un riesgo empresarial

Después de que la IA se convirtiera en un equipo estándar para las empresas, un fenómeno que en el pasado se consideraba un “problema de percepción” está saliendo rápidamente a la superficie: los LLM (modelos de lenguaje a gran escala) se están “volviendo más tontos”. El usuario de la red Wisely Chen señaló que el llamado “degradarse la inteligencia de los LLM” no es un mito urbano, sino que ya puede rastrearse de forma continua mediante datos, y que está generando efectos reales en los flujos de trabajo empresariales.

Puso como ejemplo su propia experiencia: el 15 de abril, los servicios de la serie Claude de Anthropic sufrieron una degradación generalizada, incluyendo claude.ai, la API y Claude Code, que mostraban “Degraded Performance”. Esto no es simplemente que fuera más lento o un error ocasional, sino que la calidad de las respuestas se desplomó de forma evidente, e incluso hubo casos en los que no se podía usar correctamente, lo que hizo que sus tres tareas de desarrollo del día se retrasaran por completo.

Estas situaciones para los desarrolladores individuales tal vez signifiquen solo una caída de eficiencia, pero para los equipos de TI de las empresas el impacto se multiplica. Cuando un equipo tiene varios ingenieros que dependen al mismo tiempo de herramientas de IA para programar, redactar documentos y automatizar procesos, una degradación del modelo en un solo momento implica que la productividad total disminuya colectivamente en el mismo periodo, convirtiéndose así en una pérdida considerable de tiempo y costos.

¿La IA se siente más tonta? Los datos confirman que “ya se degradó”

Wisely Chen señaló que “GPT se volvió más tonto”, “Claude no es como antes” y otras afirmaciones que han circulado por la comunidad durante mucho tiempo carecían de respaldo de datos objetivos. Solo hasta que recientemente surgieron plataformas que monitorean de manera continua la calidad del modelo, este fenómeno se cuantificó por primera vez.

Entre ellas, StupidMeter realiza pruebas automatizadas de 24 horas a modelos principales como OpenAI, Anthropic, Google, etc., haciendo seguimiento de indicadores como exactitud, capacidad de razonamiento y estabilidad. A diferencia de los benchmark tradicionales de una sola vez, estos sistemas se parecen más a la manera en que las empresas monitorean APIs o la disponibilidad de servicios: observan las fluctuaciones del desempeño del modelo en entornos de uso reales.

Los resultados son bastante directos: actualmente, la mayoría de los modelos principales se encuentran en estado de advertencia o degradación, y solo unos pocos mantienen un funcionamiento normal. Esto significa que la calidad del modelo es inestable; no es un problema de un producto único, sino un fenómeno generalizado en toda la industria.

LLM, baja la inteligencia “sin avisar”, afecta la estabilidad de los flujos de trabajo de la IA en las empresas

Para las empresas, este tipo de cambios significa que la IA deja de ser “una herramienta para mejorar la eficiencia” y pasa a ser una “variable que afecta la estabilidad”. Si los flujos de trabajo diarios de una empresa —desde escribir código, hacer code review, hasta producir documentos e informes de análisis— ya dependen en gran medida de LLM, entonces cuando un modelo presenta una caída de la capacidad de razonamiento o una merma en la calidad de las respuestas en un día, estos problemas no ocurren de forma localizada como los fallos (bugs) de software tradicionales, sino que se infiltran simultáneamente en todos los aspectos donde se usa IA.

Lo más importante es que estas fluctuaciones a menudo son difíciles de predecir y difíciles de detectar de inmediato. La mayoría de las empresas no cuenta con mecanismos para monitorear continuamente la calidad del modelo; normalmente solo se dan cuenta de que el problema proviene del propio modelo cuando los resultados son anómalos o cuando baja la eficiencia del equipo. En este contexto, el “degradarse la inteligencia” deja de ser solo una percepción subjetiva de los usuarios y se convierte en un riesgo sistémico que afecta directamente el ritmo de operación de la empresa.

Cuando la IA se convierte en electricidad y agua, la estabilidad pasa a ser el nuevo indicador clave

Wisely Chen compara el papel de los LLM con “la electricidad y el agua de la empresa moderna”. Cuando la IA se ha integrado en la operación diaria y se convierte en una capacidad básica indispensable, la importancia de la estabilidad también aumenta en consecuencia.

En el pasado, al evaluar herramientas de IA, las empresas se enfocaban principalmente en la capacidad del modelo, el precio y las funciones, pero a medida que surge el fenómeno de “degradarse la inteligencia”, aparece otro indicador aún más crucial: la estabilidad. Cuando la calidad del modelo puede cambiar sin previo aviso, las empresas ya no solo “usan IA”, sino que tienen que asumir un nuevo tipo de riesgo para la infraestructura básica. Lo más desesperanzador es que, si solo se miran los modelos de lenguaje grandes de vanguardia, básicamente mientras no se resuelva el problema de la capacidad de cómputo, es posible que siga ocurriendo.

Este artículo Datos revelan que “Claude se degradó” no es un mito urbano; los modelos de IA inestables se convierten en un riesgo para las empresas; apareció por primera vez en CadenaNews ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

El juez desestima las acusaciones de fraude en la demanda de Elon Musk contra OpenAI; el caso avanza a juicio con dos acusaciones restantes

Mensaje de Gate News, 24 de abril — Un juez federal ha desestimado las acusaciones de fraude de la demanda de Elon Musk contra OpenAI, Sam Altman, Greg Brockman y Microsoft, despejando el camino para que el caso avance a juicio con dos acusaciones restantes: incumplimiento de la confianza caritativa y enriquecimiento injusto. EE. UU.

GateNewshace1h

El CEO de OpenAI, Sam Altman, se disculpa por no reportar a la policía la cuenta prohibida del agresor de una escuela

Mensaje de Gate News, 25 de abril — El director ejecutivo de OpenAI, Sam Altman, se disculpó con la comunidad de Tamborine en Canadá por el fallo de la empresa al no notificar a la policía sobre una cuenta prohibida vinculada a Jesse Van Rootselaar, quien mató a ocho personas en una escuela en febrero antes de quitarse la vida. OpenAI

GateNewshace2h

Los EAU anuncian un cambio hacia un modelo de gobierno basado en IA en los próximos dos años

Su Alteza el Jeque Mohammed bin Rashid Al Maktoum declaró que el objetivo era que el 50% de los sectores gubernamentales operaran a través de IA agentica autónoma. La transición también incluirá la formación de los empleados federales para “dominar la IA” y estará supervisada por el Jeque Mansour bin Zayed. Puntos Clave:

Coinpediahace2h

Plataforma de trading de IA Fere AI recauda $1.3M en financiación liderada por Ethereal Ventures

Mensaje de Gate News, 25 de abril — Fere AI, una plataforma de comercio de activos digitales impulsada por IA, anunció la finalización de una ronda de financiación de $1.3 millones liderada por Ethereal Ventures, con la participación de Galaxy Vision Hill y Kosmos Ventures, según Globenewswire. La plataforma admite redes de cadena cruzada

GateNewshace3h

Google aumenta la apuesta con una inversión de 40 mil millones de dólares en Anthropic: primero paga 10 mil millones y luego libera 30 mil millones según el desempeño, con capacidad informática de 5 GW de TPU

Alphabet 增加对 Anthropic 的投资至 40 亿美元,分两阶段:第一笔 10 亿美元现金注入、估值 3800 亿美元;剩余 30 亿美元在业绩达标后分阶段释放。Google Cloud 在五年内提供 5 GW TPU 计算资源;同期 Amazon 也宣布最高 250 亿美元投资,显示 Anthropic 的算力与资本支持同步增强。

ChainNewsAbmediahace3h

Las OPIs de SpaceX, OpenAI y Anthropic podrían atraer más de $240 Billion, lo que potencialmente afectaría la liquidez del mercado cripto

Mensaje de Gate News, 25 de abril — Según informes del mercado, se espera que SpaceX salga a bolsa en junio con una meta de recaudación que superaría el récord de la OPI de $29 billion de Saudi Aramco, mientras que OpenAI y Anthropic planean cotizar en la segunda mitad de 2026. Se prevé que las tres empresas

GateNewshace4h
Comentar
0/400
Sin comentarios