Nouvelles de Gate News, le 10 avril : récemment, une réponse de Musk sur la plateforme X a suscité de vifs débats à propos de l’estimation de l’ampleur des paramètres du modèle phare d’Anthropic. En réponse à la question d’un utilisateur au sujet du nombre de paramètres de Grok 4.2, Musk a confirmé : « 0,5 billion de paramètres au total. À l’heure actuelle, Grok représente la moitié de Sonnet, et un dixième d’Opus. Compte tenu de sa taille, c’est un modèle extrêmement puissant. » Si l’on effectue un calcul à rebours à partir de l’affirmation de Musk selon laquelle « Grok 4.2 équivaut à un dixième d’Opus », les paramètres de Claude Opus seraient d’environ 5 billions et ceux de Claude Sonnet d’environ 1 billion. Il convient de noter qu’Anthropic n’a jamais divulgué publiquement la taille des paramètres de l’un quelconque de ses modèles ; les chiffres ci-dessus ne sont qu’une estimation tirée des propos de Musk, et ne constituent pas des données officielles. Par ailleurs, Musk a révélé que le cluster de supercalculateur Colossus 2, du département IA de SpaceX, entraîne en parallèle 7 modèles, dont la taille maximale atteint 10 billions de paramètres, et a ajouté : « Il reste encore quelques efforts de rattrapage à fournir. » Si l’estimation est exacte, Claude Opus, avec 5 billions de paramètres, se classerait au sommet parmi les modèles déployés actuellement connus ; quant au modèle à 10 billions de paramètres entraîné en parallèle par xAI, il deviendra alors un facteur déterminant de la prochaine phase de la compétition.