Gate News: 4 de abril, una respuesta reciente de Musk en la plataforma X ha desatado un intenso debate sobre las estimaciones del tamaño de parámetros del modelo insignia de Anthropic. Al responder a la pregunta de un usuario sobre la cantidad de parámetros de Grok 4.2, Musk confirmó: «0.5 billones de parámetros en total. El Grok actual es la mitad de Sonnet y una décima parte de Opus. Por su tamaño, es un modelo muy potente». Si se hace una deducción inversa a partir de lo que Musk dijo de que «Grok 4.2 es una décima parte de Opus», la cantidad de parámetros de Claude Opus sería de aproximadamente 5 billones, y la de Claude Sonnet, de aproximadamente 1 billón. Cabe señalar que Anthropic nunca ha divulgado públicamente el tamaño de parámetros de ninguno de sus modelos; las cifras anteriores solo provienen de inferencias basadas en las declaraciones de Musk, y no son datos oficiales.
Mientras tanto, Musk reveló que el clúster de supercomputación Colossus 2 de SpaceX AI está entrenando simultáneamente 7 modelos, con un tamaño máximo de 10 billones de parámetros, y añadió: «Todavía hay algunas tareas que ponerse al día». Si las estimaciones fueran ciertas, Claude Opus, con 5 billones de parámetros, ocuparía la cima de los modelos actualmente conocidos desplegados; y el modelo de 10 billones de parámetros que xAI entrena simultáneamente se convertirá en una variable importante en la próxima ronda de competencia.