Modelos de ciberseguridad de nivel armamentístico de Anthropic Mythos accedidos sin autorización: ¿cómo lo lograron?

Bloomberg informó que, presuntamente, un grupo privado de un foro anunció públicamente el mismo día en que se rompieron las restricciones mediante el modelo de ciberseguridad de Anthropic, Mythos, de una filial. Al acceder al sistema usando credenciales de acceso obtenidas mediante un contratista externo, lograron usar el modelo, lo que provocó la preocupación del público sobre la gobernanza segura de los modelos de IA de máximo nivel.

(Anthropic lanzó el programa global de ciberseguridad Glasswing; ¿por qué el nuevo modelo Mythos no se abre al uso del público?)

Primer día de lanzamiento, Mythos sufre acceso no autorizado

El 7 de abril, Anthropic anunció un nuevo modelo de IA de seguridad web, Claude Mythos; sin embargo, un grupo privado de foro en línea, cuya identidad aún no se ha hecho pública, según se informa, ya había obtenido sigilosamente acceso al modelo.

Según se sabe, este grupo no consiguió entrar mediante métodos tradicionales de piratería, sino que aprovechó su dominio de los formatos de URL de los modelos anteriores de Anthropic, deduciendo razonablemente la ubicación en línea de Mythos dentro del sistema. La brecha clave estuvo en un empleado que trabajaba para un contratista externo de Anthropic. Él ya tenía una autorización legal para ver los modelos de IA de Anthropic, y los miembros del grupo se infiltraron en el sistema mediante esa vía de acceso conforme.

Después de esto, el grupo proporcionó a Bloomberg capturas de pantalla y una demostración operativa en tiempo real como prueba, y reveló que han seguido usando Mythos hasta el día de hoy. Aun así, subrayaron que su propósito se limitaba a «jugar con el modelo nuevo» y no tenían intención de llevar a cabo ninguna acción destructiva, porque no querían ser descubiertos.

¿Qué es Mythos? ¿Por qué genera preocupación en el exterior?

Claude Mythos es un modelo de IA diseñado por Anthropic para la defensa de ciberseguridad de empresas. El equipo lo definió como una herramienta «demasiado poderosa como para ser publicada públicamente». Su capacidad central consiste en identificar de forma proactiva vulnerabilidades de seguridad en sistemas digitales y ayudar a las empresas a completar las reparaciones antes de sufrir ataques.

Sin embargo, esta «espada defensiva» también puede ser una «espada de doble filo». Anthropic admite que, si Mythos cae en manos de actores maliciosos, su capacidad también podría usarse para lanzar ataques. Por ello, la compañía abrió Mythos únicamente a un pequeño número de grandes instituciones o empresas tecnológicas que han superado evaluaciones estrictas, a través del plan de ciberseguridad llamado «Project Glasswing».

La suposición central de este mecanismo de control cerrado es que los socios de confianza pueden garantizar que entre ellos las credenciales de acceso no se filtren.

(Preocupación de Anthropic por el acceso que esquiva la supervisión: Bessent y Powell convocan una reunión urgente con ejecutivos del banco)

Respuesta de Anthropic: estamos investigando, no hay impacto

Sobre esto, Anthropic declaró: «Estamos investigando un informe que afirma que se accedió sin autorización a Claude Mythos Preview a través de un entorno de un proveedor externo». La compañía enfatizó que, por el momento, no se ha encontrado que sus sistemas hayan sido afectados, y que preliminarmente este incidente «tiene más probabilidades de deberse a un abuso de permisos de acceso que a un ataque de hackers externo».

Aunque los usuarios que usaron Mythos de forma anticipada no hayan realizado acciones maliciosas, el propio incidente aún mantiene en alto estado de alerta a los expertos en ciberseguridad. Raluca Saceanu, directora ejecutiva de la empresa de ciberseguridad Smarttech247, señaló:

Cuando herramientas de IA potentes se acceden o se usan fuera de los mecanismos de control establecidos, el riesgo no se limita a un incidente de ciberseguridad; es más probable que surjan sospechas de fraude, abuso en la red u otros usos maliciosos.

¿Qué impacto podría causar esto? Debilidad en el control de seguridad de la IA

Lo verdaderamente preocupante de este incidente no es que alguien intentara sabotear, sino la vulnerabilidad sistémica que revela: cuando una empresa de IA transfiere el acceso a modelos de alta sensibilidad a proveedores externos, cualquier fallo en cualquier eslabón de la red de control —por pequeño que sea— puede convertirse en una brecha y desencadenar una crisis.

Ahora, el caso de Mythos le recuerda a toda la industria que, en un momento en que las capacidades de la IA avanzan rápidamente, el diseño de la arquitectura de seguridad no puede depender únicamente de la confianza; también necesita una resiliencia institucional que pueda soportar el fallo de la confianza. Para Anthropic, cómo reconstruir la confianza del público en sus mecanismos de control de socios será un reto más duradero que la propia investigación.

Este artículo: El modelo de ciberseguridad de nivel armamentístico de Anthropic, Mythos, sufrió acceso no autorizado: ¿cómo lo lograron? Aparece por primera vez en la Red de Enlaces ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Las OPIs de SpaceX, OpenAI y Anthropic podrían atraer más de $240 Billion, lo que potencialmente afectaría la liquidez del mercado cripto

Mensaje de Gate News, 25 de abril — Según informes del mercado, se espera que SpaceX salga a bolsa en junio con una meta de recaudación que superaría el récord de la OPI de $29 billion de Saudi Aramco, mientras que OpenAI y Anthropic planean cotizar en la segunda mitad de 2026. Se prevé que las tres empresas

GateNewshace1h

DeepSeek-V4 en versión preliminar publicado con ventana de contexto de 1M; la solución de IA de Huawei DCS brinda soporte completo

Mensaje de Gate News, 25 de abril — La versión preliminar de DeepSeek-V4 se ha lanzado oficialmente y se ha publicado como código abierto, con una ventana de contexto ampliada de 1 millón de tokens e introduciendo KV Cache con ventana deslizante mediante algoritmos de compresión para reducir la complejidad computacional de la Atención y la presión del ancho de banda de memoria.

GateNewshace1h

Regresa la escasez de GPU mientras Microsoft y Amazon ajustan el suministro; las startups de IA enfrentan un aumento del 32% en precios y colas hasta fin de año

Mensaje de Gate News, 25 de abril — Vuelve a aparecer una escasez de GPU mientras los principales proveedores de nube, incluidos Microsoft y Amazon, concentran capacidad de cómputo en equipos internos y grandes clientes como OpenAI y Anthropic, dejando que las empresas emergentes de IA más pequeñas enfrenten aumentos de precios, tiempos de espera prolongados y términos de contrato más estrictos.

GateNewshace3h

Nvidia在Blackwell基础设施上将OpenAI Codex AI代理部署至全体员工

消息快报,4月25日——据首席执行官Jensen Huang和OpenAI首席执行官Sam Altman的内部沟通内容,Nvidia已在成功试点后,将OpenAI的Codex这一由GPT-5.5驱动的AI代理面向其全体员工部署,试点约涉及10,000名员工。 Codex旨在用于

GateNewshace4h

El Departamento de Estado de EE. UU. advierte sobre la destilación del modelo de IA DeepSeek

El Departamento de Estado de EE. UU. emitió un cable el 24 de abril a las misiones diplomáticas y consulares de todo el mundo, advirtiendo a gobiernos extranjeros sobre los esfuerzos de China por copiar sistemas de IA estadounidenses mediante destilación, según Reuters. El cable

CryptoFrontierhace4h

La startup de IA para la salud del profesor de Stanford busca $100M con una valoración de $1B

Mensaje de Gate News, 25 de abril — El profesor de Stanford James Zou está recaudando aproximadamente $100 millones para Human Intelligence, una startup de California que desarrolla modelos de IA para la fisiología humana, con una valoración de alrededor de $1 mil millones. La empresa se basa en la investigación de Zou en fisiología e IA. El algoritmo EchoNet de su laboratorio

GateNewshace4h
Comentar
0/400
Sin comentarios