Mensaje de Gate News, 29 de abril — Los pesos del modelo flash Ling-2.6 de Ant Group ahora se han publicado como código abierto, después de haber estado disponibles previamente solo vía API. El modelo cuenta con 104 mil millones de parámetros totales, con 7.4 mil millones activados por inferencia, una ventana de contexto de 256K y licencia MIT. Hay versiones de precisión BF16, FP8 e INT4 disponibles en HuggingFace y ModelScope.
Ling-2.6-flash introduce mejoras en la atención lineal híbrida sobre Ling 2.0, actualizando el GQA original a una arquitectura híbrida 1:7 MLA plus Lightning Linear combinada con MoE altamente disperso. La eficiencia de inferencia supera significativamente a la de modelos comparables: la velocidad máxima de generación alcanza 340 tokens/s en 4 GPUs H20, con un rendimiento de prefill y decode aproximadamente 4 veces mayor que el de modelos comparables de código abierto. Los puntos de referencia relacionados con agentes muestran un rendimiento sólido: BFCL-V4, TAU2-bench, SWE-bench Verified (61.2%), Claw-Eval y PinchBench logran o se acercan a niveles SOTA. En toda la suite de benchmarks de Artificial Analysis, el consumo total de tokens es de solo 15 millones. En AIME 2026, el modelo obtuvo 73.85%.
El sitio web oficial de Ant Group también lista las versiones insignia Ling-2.6-1T (de cientos de miles de millones de parámetros) y Ling-2.6-mini (de versión ligera), aunque a la fecha de publicación, sus pesos aún no se han lanzado en HuggingFace, con solo la serie flash disponible para descarga.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Informe de investigación de a16z Crypto: la tasa de explotación de vulnerabilidades DeFi de los agentes de IA alcanza el 70%
Según el informe de investigación publicado por a16z Crypto el 29 de abril, bajo condiciones en las que los agentes de IA están equipados con conocimientos del dominio de manera estructurada, la tasa de éxito al reproducir una vulnerabilidad de manipulación del precio de Ethereum alcanza el 70%; en un entorno de sandbox sin ningún conocimiento del dominio, la tasa de éxito es solo del 10%. El informe también registra casos en los que los agentes de IA eluden independientemente las restricciones del sandbox para acceder a información futura de transacciones, así como patrones de fallo sistemático cuando los agentes elaboran planes de ataque rentables de varios pasos.
MarketWhisperHace19m
Modelos de OpenAI para migrar gradualmente al chip Trainium personalizado de Amazon, dice Altman que está “mirando con ilusión” hacia ello
Mensaje de Gate News, 29 de abril — Los modelos de OpenAI que se ejecutan en Amazon Web Services' Bedrock migrarán gradualmente a Trainium, el chip de IA diseñado a medida por Amazon, según declaraciones recientes del CEO de OpenAI, Sam Altman, y de ejecutivos de AWS. Actualmente, los modelos funcionan en un entorno mixto usando tanto GPU y Tr
GateNewshace1h
Altman:随着 GPT-5.5 将重点转向任务完成,“基于代币的定价”正走向过时
Gate News 消息,4 月 29 日 — OpenAI 首席执行官 Sam Altman 在接受 Stratechery 的 Ben Thompson 采访时表示,基于代币的定价并非 AI 服务的长期可行模式。以 GPT-5.5 为例,Altman 指出,尽管单代币价格相比 GPT-5.4 显著更高,但该模型使用的代币数量要少得多来完成同一任务,这意味着客户并不在乎代币数量——他们只关心任务是否完成以及总成本。
GateNewshace1h
Sam Altman publica capturas de pantalla del modo doble de Codex; las funciones de oficina y de programación se separan oficialmente
La captura y la declaración publicadas por el CEO de OpenAI, Sam Altman, el 29 de abril en la plataforma X indican que Codex está lanzando una nueva interfaz de guía; cuando los usuarios entran por primera vez, deben elegir entre dos modos: Excelmogging y Codemaxxing. Los usuarios activos semanales de Codex actualmente ya superan los 4 millones, y los casos de uso se han ampliado desde la generación de código hasta usos no técnicos.
MarketWhisperhace1h
Codex de OpenAI lanza una interfaz de doble modo: Excelmogging para el trabajo de oficina y Codemaxxing para la programación
Mensaje de Gate News, 29 de abril — El CEO de OpenAI, Sam Altman, anunció hoy en X una interfaz de Codex rediseñada, presentando dos modos distintos para los usuarios. "Excelmogging" está orientado a tareas cotidianas de oficina con una interfaz simplificada y el lema "Same tools, simpler interface," con ejemplos de tareas como la creación de hojas de cálculo.
GateNewshace2h
Medio estadounidense: el borrador de una orden ejecutiva de la Casa Blanca permite que el modelo Anthropic Mythos entre en el gobierno
Según Axios, el 28 de abril citando a personas con conocimiento de los hechos, la Casa Blanca está desarrollando directrices para permitir que cada agencia federal eluda la determinación de riesgo de la cadena de suministro (SCRD) de Anthropic e introduzca nuevos modelos para uso del gobierno, incluidos modelos como Mythos de Anthropic. Al respecto, la Casa Blanca publicó una declaración oficial en la que afirma que cualquier declaración de políticas será emitida directamente por el presidente, y que cualquier otra afirmación es pura especulación.
MarketWhisperhace2h