【币界】Anthropic a récemment effectué un test assez hardcore — faire défier les modèles d'IA Claude Opus 4.5, Sonnet 4.5 et GPT-5 sur des vulnérabilités réelles des smart contracts.
Ils ont construit une plateforme de test appelée SCONE-bench, qui contient 405 contrats réellement piratés entre 2020 et 2025. Le résultat est assez intéressant : pour les contrats attaqués après mars 2025 (c'est-à-dire après la mise à jour de ces bases de connaissances), les trois IA ont identifié des vulnérabilités exploitables d'une valeur d'environ 4,6 millions de dollars.
Ce qui est encore plus excitant, c'est la phase de simulation de combat. Ils ont pris 2849 contrats récemment déployés qui n'ont pas encore présenté de problèmes pour les tester. Sonnet 4.5 et GPT-5 ont chacun découvert 2 vulnérabilités zero-day qui n'avaient jamais été divulguées auparavant. Ces 4 vulnérabilités pourraient théoriquement entraîner une perte de 3694 dollars.
Il y a un détail assez magique : le coût des appels API pour GPT-5 lors de ce test s'élève à 3476 dollars - ce qui annule pratiquement la valeur de la vulnérabilité découverte. Cette opération pousse à réfléchir : l'audit AI des smart contracts, est-ce vraiment rentable ou vraiment cher ?
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
4
Reposter
Partager
Commentaire
0/400
memecoin_therapy
· Il y a 22h
Un bug de 4,6 millions de dollars a été découvert par l'IA ? La sécurité off-chain va devoir faire des heures supplémentaires, haha
La rapidité de Claude à trouver des bugs est vraiment effrayante, le problème c'est que la facture API de GPT-5 doit être terrifiante
Des vulnérabilités de zéro jour découvertes en masse par l'IA... le métier d'audit de sécurité devient de plus en plus difficile
Anthropic est-il en train de faire du conseil en sécurité gratuit pour la communauté Web3 ? Je ne pense pas, c'est une démonstration de la puissance de la technologie
Les vulnérabilités de contrat seront tôt ou tard monopolisées par l'IA, les audits traditionnels sont voués à l'échec.
Voir l'originalRépondre0
MetamaskMechanic
· Il y a 22h
4,6 millions de dollars ? Cette IA peut vraiment faire ça... mais il faut voir combien d'argent réel elle peut finalement extraire
Les capacités du modèle Claude sont effectivement solides, mais je m'inquiète davantage de savoir si ces vulnérabilités, maintenant rendues publiques, ne deviendront pas des cibles
Rien que pour les frais d'API de GPT-5, combien cela coûte-t-il... le rapport coût-bénéfice est un peu
Trouver 4 vulnérabilités de type zero-day ? Ça a l'air d'être un bull, mais ça semble encore être un début
Donc maintenant, l'IA trouve des vulnérabilités mieux que les auditeurs de sécurité ? J'ai un peu de réflexion intérieure
Faire concourir l'IA pour trouver des vulnérabilités semble être une nouvelle direction en matière de sécurité, mais cela a aussi un goût un peu dangereux
La qualité de ce jeu de données détermine tout, les échantillons de 2020 à 2025 auront-ils des biais
3694 dollars pour un zero-day semble un peu faible... je pensais que ce serait plus
L'IA trouve les vulnérabilités beaucoup plus rapidement que les humains, mais la question de la confiance reste en suspens
Voir l'originalRépondre0
CexIsBad
· Il y a 22h
4,6 millions de dollars ? L'IA commence à piquer le pain des chercheurs en sécurité, c'est vraiment incroyable haha
La capacité de GPT-5 à exploiter les vulnérabilités est effectivement incroyable, mais ces frais d'API... rien que pour le débogage, ça doit être épuisant
Les vulnérabilités zero-day sont révélées par l'IA à l'avance, les hackers sont maintenant au chômage
Ces données de test sont un peu faibles, 405 contrats c'est suffisant ?
On dirait que l'IA est beaucoup plus fiable que les auditeurs de sécurité humains... mais cela dépend de la manière dont la gestion des risques suit le mouvement
Sonnet 4.5 a également réussi, Claude a mené cette campagne de manière assez intelligente
Une vulnérabilité à 3694 dollars, pourquoi l'IA doit-elle intervenir ?
Cela signifie que l'industrie de l'audit des smart contracts va être complètement réorganisée, c'est un peu effrayant.
Voir l'originalRépondre0
CryptoPunster
· Il y a 22h
Oh là là, l'IA commence à exploiter des failles pour gagner de l'argent, mon emploi va disparaître !
4,6 millions de dollars, cet argent suffit pour que GPT-5 fasse faillite avec les frais d'API, haha.
Les failles de type zero-day doivent encore être trouvées par l'IA, nous, les pigeons, devrions déjà être mis à la porte.
C'est intéressant, Sonnet peut-il être plus efficace que GPT-5 ? Anthropic sous-entend quoi ?
Les failles dans les smart contracts valent des millions, mais mon portefeuille a un défaut inestimable.
Voilà, les hackers vont tous être au chômage grâce à l'IA, et le prochain sur la liste, c'est nous.
L'IA a découvert une vulnérabilité de contrat de 4,6 millions de dollars, mais les frais d'API de GPT-5 ont failli lui coûter cher.
【币界】Anthropic a récemment effectué un test assez hardcore — faire défier les modèles d'IA Claude Opus 4.5, Sonnet 4.5 et GPT-5 sur des vulnérabilités réelles des smart contracts.
Ils ont construit une plateforme de test appelée SCONE-bench, qui contient 405 contrats réellement piratés entre 2020 et 2025. Le résultat est assez intéressant : pour les contrats attaqués après mars 2025 (c'est-à-dire après la mise à jour de ces bases de connaissances), les trois IA ont identifié des vulnérabilités exploitables d'une valeur d'environ 4,6 millions de dollars.
Ce qui est encore plus excitant, c'est la phase de simulation de combat. Ils ont pris 2849 contrats récemment déployés qui n'ont pas encore présenté de problèmes pour les tester. Sonnet 4.5 et GPT-5 ont chacun découvert 2 vulnérabilités zero-day qui n'avaient jamais été divulguées auparavant. Ces 4 vulnérabilités pourraient théoriquement entraîner une perte de 3694 dollars.
Il y a un détail assez magique : le coût des appels API pour GPT-5 lors de ce test s'élève à 3476 dollars - ce qui annule pratiquement la valeur de la vulnérabilité découverte. Cette opération pousse à réfléchir : l'audit AI des smart contracts, est-ce vraiment rentable ou vraiment cher ?