Le créateur de Claude, Anthropic, développe un nouveau modèle d’IA appelé Claude Mythos, décrit en interne comme le modèle le plus performant de l’entreprise à ce jour, avec des éléments de projet sur le système qui ont été divulgués en ligne cette semaine. L’existence du modèle a d’abord été rapportée par Fortune jeudi après que des fichiers non publiés liés au blog d’Anthropic ont été découverts dans un cache de données accessible au public. Un porte-parole d’Anthropic a confirmé l’existence du modèle au média. « Nous développons un modèle à usage général avec des avancées significatives en matière de raisonnement, de codage et de cybersécurité », a déclaré un porte-parole d’Anthropic à Fortune. « Compte tenu de la puissance de ses capacités, nous sommes délibérés sur la manière dont nous le publions. Comme c’est la pratique standard dans l’ensemble de l’industrie, nous travaillons avec un petit groupe de clients bénéficiant d’un accès anticipé pour tester le modèle. Nous considérons que ce modèle constitue un changement d’échelle et le plus capable que nous ayons construit à ce jour. »
Sur une page de développement archivée examinée par Decrypt, Anthropic a qualifié Mythos de « le modèle d’IA le plus puissant que nous ayons jamais développé ». « Mythos est un nouveau nom pour un nouveau palier de modèle : plus grand et plus intelligent que nos modèles Opus — qui étaient jusqu’à présent nos modèles les plus puissants », a écrit Anthropic. « Nous avons choisi ce nom pour évoquer les tissus conjonctifs profonds qui relient ensemble la connaissance et les idées. » Selon Anthropic, Mythos a obtenu un score « nettement supérieur » à Claude Opus 4.6 dans des tests de codage logiciel, de raisonnement académique et de cybersécurité.
La fuite de Mythos semble provenir de supports de projet stockés dans un système de gestion de contenu non sécurisé. D’après Fortune, Anthropic a restreint l’accès public au magasin de données après avoir été informée que les fichiers étaient consultables en ligne. L’entreprise a attribué l’exposition à une erreur humaine dans la configuration de ses outils CMS. Cependant, les documents d’Anthropic décrivent Mythos comme la version un du nouveau modèle et indiquent en interne que la version deux s’appelle « Capybara », un nom que l’entreprise a aussi positionné au-dessus de ses modèles Opus de pointe actuels. Les supports de projet ont également mis en évidence des préoccupations concernant les implications potentielles du système en matière de cybersécurité. « Bien que Mythos soit actuellement très en avance sur tout autre modèle d’IA en matière de capacités cyber, il annonce une vague de modèles à venir capables d’exploiter des vulnérabilités d’une manière qui dépasse largement les efforts des défenseurs », a écrit l’entreprise. En raison de ces risques, l’entreprise a déclaré qu’elle prévoit de déployer le modèle avec prudence, en commençant par une mise en accès anticipé limitée, destinée aux organisations travaillant sur la défense en cybersécurité. Anthropic n’a pas répondu immédiatement à la demande de commentaire de Decrypt. Alors qu’Anthropic retirait le billet de blog, la nouvelle de la fuite s’est rapidement répandue dans les marchés financiers. Les actions de plusieurs sociétés de cybersécurité ont chuté après la diffusion des informations, notamment Palo Alto Networks (PANW), qui a reculé d’environ 7 %, et CrowdStrike (CRWD), en baisse d’environ 6,4 %. Dans le même temps, Zscaler (ZS) a reculé d’environ 5,8 % et Fortinet (FTNT) a glissé d’environ 4 % lors des échanges de vendredi, selon Yahoo Finance.
La réaction à la vente rappelle une réponse similaire du marché à la révélation d’un nouveau produit d’Anthropic. En février, Anthropic a dévoilé Claude Cowork, un système d’IA conçu pour automatiser des tâches complexes au travail — y compris la revue de contrats et la conformité — ce qui a entraîné une large vague de ventes dans les entreprises de logiciels et de services professionnels. Cette vague de ventes a effacé environ 285 milliards de dollars de valeur de marché, alors que les investisseurs réévaluaient l’impact à long terme des agents d’IA sur les entreprises de logiciels en entreprise. « La réaction du marché a été un signal : pas que les agents d’IA remplaceront immédiatement ces entreprises, mais que les investisseurs intègrent enfin le risque structurel que les fournisseurs de modèles de base peuvent désormais concurrencer directement la couche logicielle », a déclaré le fondateur de Nexatech Ventures, Scott Dylan, à Decrypt à l’époque. « C’est une façon polie de dire que si Anthropic peut construire un outil de workflow juridique en interne, qu’est-ce qui l’empêcherait d’en faire autant pour la finance, les achats ou les RH ? »