El CEO de OpenAI, Sam Altman, ha acusado a la rival Anthropic de usar “marketing basado en el miedo” para promocionar su modelo de IA Claude Mythos, según comentarios realizados en el podcast Core Memory que presenta la periodista tecnológica Ashlee Vance. Altman sostuvo que esa retórica basada en el miedo está diseñada para justificar mantener los sistemas avanzados de IA bajo el control de “un grupo más pequeño de personas”, aunque reconoció que algunas preocupaciones de seguridad son legítimas.
Altman dijo que, si bien hay preocupaciones válidas sobre la seguridad de la IA, “es claramente un marketing increíble decir: ‘Hemos construido una bomba. Estamos a punto de soltarla sobre tu cabeza. Te venderemos un refugio antibombas por $100 millones. Necesitas eso para correr por toda tu configuración, pero solo si nos eliges como cliente.’” Señaló que “no siempre es fácil” equilibrar las nuevas capacidades de la IA con la creencia de que la tecnología debería ser accesible.
Altman reconoció que “habrá preocupaciones legítimas de seguridad”, pero sugirió que el mensaje basado en el miedo podría usarse como arma para justificar el control centralizado. Dijo: “si lo que quieres es algo como ‘necesitamos el control de la IA, solo nosotros, porque somos las personas en las que se puede confiar’, creo que el marketing basado en el miedo probablemente es la forma más efectiva de justificar eso”.
El modelo de Anthropic, Claude Mythos, se reveló el mes pasado y ha captado una atención significativa por parte de investigadores, gobiernos y la industria de la ciberseguridad. Según las pruebas, el modelo puede identificar de forma autónoma vulnerabilidades de software y ejecutar operaciones cibernéticas complejas. Durante las pruebas, Mythos identificó cientos de vulnerabilidades en el navegador Firefox de Mozilla y ha demostrado la capacidad de llevar a cabo simulaciones de ciberataques de múltiples etapas.
Anthropic ha restringido el acceso al sistema a través de Project Glasswing, un programa limitado que concede a empresas selectas—incluyendo Amazon, Apple y Microsoft—la capacidad de poner a prueba sus capacidades. La compañía también ha comprometido recursos significativos para respaldar esfuerzos de seguridad de código abierto, argumentando que los defensores deberían beneficiarse de la tecnología antes de que esté disponible de forma más generalizada.
Anthropic ha presentado las capacidades de Mythos como un avance defensivo—que permite una detección más rápida de fallas críticas de software—y también como un riesgo ofensivo potencial si se usa de manera indebida. El modelo también ha expuesto limitaciones en los sistemas existentes de evaluación de IA, y Anthropic reconoce que muchos de los actuales puntos de referencia de ciberseguridad ya no son suficientes para medir las capacidades de su sistema más reciente.
A pesar de los llamados dentro de partes del gobierno de EE. UU. para detener el uso de la tecnología por preocupaciones sobre sus posibles aplicaciones en la guerra y la vigilancia, según se informa la Agencia de Seguridad Nacional (NSA) ha comenzado a probar una versión previa del modelo en redes clasificadas. En el mercado de predicciones Myriad, los usuarios otorgaron un 49% de probabilidad a que Claude Mythos se lance al público en general antes del 30 de junio.
Un grupo de investigadores afirmó la semana pasada que pudieron reproducir los hallazgos de Mythos usando modelos disponibles públicamente.
Altman sugirió que la retórica sobre sistemas de IA altamente peligrosos puede aumentar a medida que mejoren las capacidades, pero argumentó que no todas esas afirmaciones deben tomarse al pie de la letra. Dijo: “Habrá mucha más retórica sobre modelos que son demasiado peligrosos para liberar. También habrá modelos muy peligrosos que tendrán que lanzarse de diferentes maneras. Estoy seguro de que Mythos es un gran modelo para la ciberseguridad, pero creo que tenemos un plan con el que nos sentimos bien sobre cómo ponemos este tipo de capacidad en el mundo.”
Altman también descartó sugerencias de que OpenAI está reduciendo el gasto en infraestructura, diciendo que la empresa seguiría expandiendo su capacidad de cómputo. Señaló: “No sé de dónde viene eso… la gente de verdad quiere contar la historia de recular. Pero muy pronto volverá a ser algo como: ‘OpenAI es tan irresponsable. ¿Cómo pueden estar gastando esta cantidad tan loca?’”