Anthropic publie Claude Opus 4.7 avec des capacités de cybersécurité affaiblies

Anthropic a publié une version améliorée de son modèle phare, Claude Opus 4.7, le 16 avril à (l’heure locale). Par rapport au modèle Opus 4.6 précédent, Opus 4.7 montre des « améliorations significatives » dans les capacités avancées d’ingénierie logicielle, en particulier sur des tâches difficiles, avec une rigueur et une cohérence renforcées dans des opérations complexes et de longue durée, ainsi que des capacités de vision améliorées. Cependant, Anthropic a volontairement affaibli les capacités d’attaque-défense en cybersécurité du modèle pendant l’entraînement et a introduit des mécanismes de sécurité pour détecter et bloquer automatiquement les requêtes interdites ou à haut risque.

Performances et benchmarks

Lors des tests de référence, Opus 4.7 a obtenu des scores généralement plus élevés que le modèle Opus 4.6 précédent et le GPT-5.4 de ses concurrents. Toutefois, Anthropic a souligné que les capacités globales d’Opus 4.7 ne correspondent pas au modèle le plus puissant de la société, Claude Mythos Preview. D’après Anthropic : « En déployant et en exploitant ces mécanismes de protection dans le monde réel, nous accumulerons de l’expérience pour, à terme, permettre un déploiement plus large des modèles de niveau Mythos. »

Déploiement et tarification

Opus 4.7 est désormais en ligne sur l’ensemble des produits Claude et des interfaces d’API, avec une intégration à Amazon Bedrock, Google Cloud Vertex AI et les services Microsoft Foundry. La tarification reste identique à celle d’Opus 4.6 : $5 par million de tokens d’entrée et $25 par million de tokens de sortie.

Changements de consommation de tokens

Deux changements dans Opus 4.7 par rapport à Opus 4.6 affecteront l’utilisation des tokens. D’abord, Opus 4.7 utilise un tokenizer mis à jour, ce qui améliore la manière dont le modèle traite le texte. Cependant, cela signifie que des entrées identiques peuvent consommer plus de tokens—environ 1 à 1,35 fois la consommation de la génération précédente.

Ensuite, Opus 4.7 effectue davantage de raisonnement avec une « intensité de réflexion » plus élevée, notamment lors des tours suivants dans des scénarios agentiques. Cela améliore la fiabilité sur des problèmes complexes, mais génère des tokens de sortie supplémentaires.

Token consumption increase visualization Augmentation de la consommation de tokens d’Opus 4.7. Source : Anthropic

Analyse du marché et contexte

Les analystes décrivent Opus 4.7 comme un modèle « transitionnel ». L’analyste en investissement Adam Button a noté que la sortie d’Opus 4.7 renforce le récit d’Anthropic autour des « modèles de type divin » comme Mythos et confirme le scepticisme du marché : les modèles payants disponibles publiquement sont essentiellement des versions « lite » limitées par des mécanismes de sécurité.

Contexte de l’entreprise et étape financière

Anthropic, fondée en 2021 par d’anciens employés d’OpenAI, développe la série de modèles de langage à grande échelle Claude. Le 6 avril, Anthropic a annoncé que son revenu annualisé (ARR) dépassait $300 un milliard, soit une hausse significative par rapport à $9 un milliard à la fin de 2025. L’entreprise poursuit activement une introduction en bourse.

Préoccupations relatives au risque en cybersécurité

Les dirigeants d’Anthropic ont à plusieurs reprises averti de l’impact de l’IA sur la cybersécurité. Selon des rapports datés du 10 avril à (l’heure locale), la secrétaire au Trésor américaine Yellen et le président de la Réserve fédérale Powell ont tenu une réunion d’urgence avec des responsables de Wall Street le 7 avril pour discuter de la manière dont le dernier modèle d’IA Mythos d’Anthropic pourrait accroître les risques en cybersécurité. Anthropic a déclaré que Mythos n’est pas adapté à un déploiement public, car le modèle pourrait être détourné par des cybercriminels et des espions. La société fournit sélectivement un accès à Mythos aux principales entreprises mondiales de cybersécurité et de logiciels.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Mike Krieger d’Anthropic démissionne du conseil d’administration de Figma

Le directeur produit d’Anthropic, Mike Krieger, a démissionné du conseil d’administration de Figma, la société indiquant que le départ n’était lié à aucun désaccord interne. Son départ fait suite à un partenariat entre Figma et Anthropic visant à intégrer des assistants de conception par IA.

GateNewsIl y a 10m

Cerebras Systems dépose une demande d’introduction en bourse aux États-Unis, deuxième tentative pour entrer en bourse

Cerebras Systems a déposé une demande d’introduction en bourse auprès des régulateurs américains le 17 avril 2023, marquant sa deuxième tentative de devenir une société cotée en tant que fabricant de puces pour l’IA.

GateNewsIl y a 40m

DeepSeek vise $300M à une valorisation de $10B , alors que les valorisations d’OpenAI et d’Anthropic alimentent le débat sur le marché

DeepSeek cherche à lever $300 million à une valorisation de $10 billion, nettement inférieure à celle des principaux acteurs américains de l’IA comme OpenAI et Anthropic. Le faible coût de formation du modèle R1 a perturbé le marché, ce qui a suscité des inquiétudes chez les investisseurs concernant les écarts de valorisation et le potentiel de revenus.

GateNewsIl y a 1h

Cerebras dépose une demande d’introduction en bourse alors que le partenariat avec OpenAI s’étend à plus de 20 Md$

Cerebras, un fabricant de puces soutenu par Nvidia, prévoit de déposer une demande d’introduction en bourse le 18 avril, en se réorientant vers la fourniture de puissance de calcul pour le cloud après un partenariat lucratif avec OpenAI. L’introduction en bourse intervient alors que les investissements dans les startups de puces IA sont importants et que les valorisations augmentent.

GateNewsIl y a 4h

World étend les intégrations de vérification d’identité avec Zoom, DocuSign, Tinder et d’autres

World, une entreprise cofondée par Sam Altman, a annoncé de nouvelles intégrations avec des plateformes telles que Zoom et Tinder, améliorant son système de vérification World ID. Le protocole mis à niveau permet aux applications d’utiliser des contrôles d’identité par niveaux, avec 17,9 millions d’utilisateurs dans le monde.

GateNewsIl y a 6h

NVIDIA a dévoilé le premier « modèle Ising » au monde conçu pour l’IA quantique

NVIDIA dévoile le modèle open source « NVIDIA Ising », conçu pour l’intelligence artificielle quantique, afin de relever les défis d’étalonnage et de correction d’erreurs des processeurs quantiques. Grâce aux technologies de langages visuels, il réduit le temps d’étalonnage à quelques heures et améliore la vitesse ainsi que la précision du décodage de correction d’erreurs. Le modèle a été intégré à plusieurs organismes de recherche et est disponible en téléchargement, afin d’accélérer l’adoption des applications dans le marché de l’informatique quantique.

ChainNewsAbmediaIl y a 8h
Commentaire
0/400
StargazingWithAMirroredSpherevip
· Il y a 14h
De 4.6 à 4.7, cela est dit « significatif », mais on ne sait pas à quel point cela améliore la débogage de longues chaînes, la refonte et la couverture des tests ?
Voir l'originalRépondre0
OrangePeelRadiovip
· Il y a 16h
Cherchez une référence : est-il possible de détecter tous les bugs cachés dans une PR complexe en une seule fois ? Ne vous contentez pas d’écrire de petits démos.
Voir l'originalRépondre0
BlackVelvetBluePeonyvip
· Il y a 16h
Anthropic, ce rythme est un peu intense, Claude ressemble de plus en plus à un « ingénieur senior » plutôt qu'à un chatbot.
Voir l'originalRépondre0
ReminderOfWavesCrashingAgainstvip
· Il y a 16h
L'amélioration des compétences en génie logiciel est très importante, les tâches au niveau du référentiel de code sont le véritable champ de bataille.
Voir l'originalRépondre0
StargazingUnderTheGlassDomevip
· Il y a 16h
4.7 Enfin arrivé, hâte de tester en pratique.
Voir l'originalRépondre0
GateUser-5d719abavip
· Il y a 16h
J'espère que ce ne sera pas encore une augmentation de classement, dans les projets réels dès qu'il y a des conflits de dépendances ou des problèmes d'environnement, ça échoue.
Voir l'originalRépondre0
TheWaveOfRasterizationvip
· Il y a 17h
Je suis plus préoccupé par la fiabilité de l'appel d'outils et des modifications multi-fichiers : peut-on maintenir la cohérence, éviter de casser plusieurs endroits en modifiant un seul ?
Voir l'originalRépondre0
StrollingOnTheEdgeOfTheDaovip
· Il y a 17h
En attendant que la communauté compare les performances SWE de GPT/DeepSeek, en particulier la navigation dans de grands dépôts, la localisation des issues, et la vitesse de livraison de bout en bout.
Voir l'originalRépondre0
BluePeonyObservervip
· Il y a 17h
4.7 de «renforcement de la rigueur» semble plus prudent, peut-être moins de bricolage avec l'API ? C'est trop important.
Voir l'originalRépondre0
Afficher plus