Anthropic teste le modèle d’IA le plus puissant qu’il ait jamais construit, et le monde n’était pas censé le savoir encore.
Une fuite de données rapportée par Fortune jeudi a révélé que le laboratoire d’IA derrière Claude a formé un nouveau modèle appelé “Mythos”, qu’il décrit en interne comme “de loin le modèle d’IA le plus puissant que nous ayons jamais développé”.
Le modèle a été découvert dans un brouillon de publication de blog laissé dans un cache de données non sécurisé et publiquement consultable, aux côtés de près de 3 000 autres actifs non publiés, selon des chercheurs en cybersécurité qui ont examiné le matériel.
Anthropic a confirmé l’existence du modèle après une enquête de Fortune, le qualifiant de “changement radical” dans les performances de l’IA et de “la plus capable que nous ayons construite jusqu’à présent”. La société a déclaré qu’il était testé par des “clients d’accès anticipé” et a reconnu qu’une “erreur humaine” dans son système de gestion de contenu avait causé la fuite.
Le brouillon de publication de blog a introduit un nouveau niveau de modèle appelé “Capybara”, décrit comme plus grand et plus capable que les modèles Opus existants d’Anthropic, qui étaient auparavant les plus puissants.
“Comparé à notre précédent meilleur modèle, Claude Opus 4.6, Capybara obtient des scores nettement plus élevés sur des tests de codage logiciel, de raisonnement académique et de cybersécurité, entre autres”, a déclaré le brouillon.
C’est la dimension de la cybersécurité qui importe le plus pour l’industrie crypto. Le brouillon de publication de blog a déclaré que le modèle “pose des risques de cybersécurité sans précédent”, un cadre qui a des implications directes pour la sécurité des blockchains, l’audit des contrats intelligents et la course aux armements croissante entre attaquants et défenseurs dans la DeFi.
Rien que cette semaine, Ripple a annoncé une refonte de sécurité alimentée par l’IA pour le XRP Ledger après qu’une équipe rouge assistée par l’IA a découvert plus de 10 vulnérabilités dans son code vieux de 13 ans. Ethereum a lancé un hub de sécurité post-quantique dédié soutenu par huit ans de recherche.
Et le stablecoin Resolv a perdu son ancrage après qu’un attaquant a exploité un contrat de minting sans vérifications d’oracle et un contrôle d’accès à clé unique, le genre de défaillance d’infrastructure que des outils d’IA plus capables pourraient potentiellement identifier avant qu’un attaquant ne le fasse, ou exploiter plus rapidement que les défenseurs ne puissent répondre.
Pour le marché des tokens d’IA, la fuite soulève une question différente. Le réseau décentralisé de Bittensor a récemment publié Covenant-72B, un modèle qui rivalise avec le Llama 2 70B de Meta, déclenchant un rallye de 90 % dans le TAO et propulsant les tokens de sous-réseau à une capitalisation boursière combinée de 1,47 milliard de dollars.
Un “changement radical” provenant d’un laboratoire centralisé comme Anthropic réinitialise la référence que les projets d’IA décentralisés doivent égaler. La distance concurrentielle entre ce qu’un laboratoire d’entreprise bien financé peut construire et ce qu’un réseau sans autorisation peut produire vient de s’élargir.
Anthropic a déclaré qu’il est “délibéré” quant à la sortie du modèle compte tenu de ses capacités. Le brouillon de blog a noté que le modèle est coûteux à exécuter et n’est pas encore prêt pour une disponibilité générale. La société a supprimé l’accès public au cache de données après que Fortune l’ait contactée.
La fuite elle-même est une histoire d’avertissement en soi. Une entreprise construisant ce qu’elle décrit comme un modèle d’IA avec des capacités de cybersécurité sans précédent a laissé l’annonce de ce modèle dans un magasin de données non sécurisé et publiquement consultable en raison d’une erreur humaine. L’ironie n’a pas besoin d’explication.