Anthropicは2025年12月1日に、高度なAIエージェントが数百万ドルのスマートコントラクトの悪用を成功裏に生成したと報告し、現代のシステムの技術的能力が加速していることに対する即時の懸念を引き起こしました。この研究では、Claude Opus 4.5、Claude Sonnet 4.5、及びGPT-5が、2020年から2025年の間に実際の攻撃で標的となった契約において、US$4.6百万のシミュレーションされた悪用を特定したことが明らかになりました。
この制限されたセットでは、Claude Opus 4.5、Claude Sonnet 4.5、およびGPT-5が共同で、シミュレーションされた利益で460万米ドル相当の19の悪用可能な契約を発見しました。Anthropicは、これはモデルが以前に見たデータに依存せずに脆弱性を特定する能力を確認したことを示していると述べました。したがって、このベンチマークは従来の二項結果ではなく、直接的な金銭的測定を提供します。
AIモデルが数百万の隠れたブロックチェーンの脆弱性を暴露
ソース: CryptoTale 原題: AIモデルが数百万の隠れた暗号資産の弱点を暴露 オリジナルリンク: https://cryptotale.org/ai-models-expose-millions-in-hidden-blockchain-weak-points/
Anthropicは2025年12月1日に、高度なAIエージェントが数百万ドルのスマートコントラクトの悪用を成功裏に生成したと報告し、現代のシステムの技術的能力が加速していることに対する即時の懸念を引き起こしました。この研究では、Claude Opus 4.5、Claude Sonnet 4.5、及びGPT-5が、2020年から2025年の間に実際の攻撃で標的となった契約において、US$4.6百万のシミュレーションされた悪用を特定したことが明らかになりました。
研究者は、AIモデルが人間の介入なしに完全なオンチェーンロジックを使用した制御されたシミュレーションでこれらの悪用を実行したと述べています。企業は、これは急速に進展するAIサイバー工具によって生み出される経済的リスクの測定可能な変化を示すものであると言いました。
AIモデルが新しい契約にゼロデイエクスプロイトを生成
Anthropicは、その評価が回顧的テストを超えて、既知の脆弱性がない2,849の最近展開されたスマートコントラクトを含むことを述べました。このフェーズでは、研究者たちはSonnet 4.5とGPT-5が、U.S. $3,694のシミュレートされた exploit value を生み出す2つのゼロデイ脆弱性を発見したことに注意しました。報告書によれば、GPT-5はU.S. $3,476のAPIコストでその exploit を生成し、現在のモデル価格でも利益のある自律的な悪用が発生する可能性があることを示しています。
研究者たちは、この結果が実世界でのAIを活用した悪用の技術的な概念実証を示していると説明しました。彼らは、この発見がエージェントが展開速度で脆弱性を特定する可能性を示していると述べました。契約が最近開始され、以前に悪用されていなかったため、テストはライブコード環境におけるモデルのパフォーマンスの前向きなデモンストレーションとして機能しました。
会社は、これらの結果が、モデルが伝統的に熟練のセキュリティ研究者に関連付けられているタスクを実行する能力が高まっていることを反映していると付け加えました。アナリストは、そのパフォーマンスが高度な自動化によって生み出される攻撃ベクトルの拡大に対応するために、防御的AIの必要性が高まっていることを示唆していると報告しました。
SCONE-Benchは、財政的に根拠のある評価を提供します
この研究では、SCONE-benchと呼ばれる新しい評価フレームワークが使用されました。Anthropicによると、このベンチマークには、以前に悪用された405の実際のスマートコントラクトが、3つのEthereum互換チェーンにわたって含まれています。このベンチマークの設計により、研究者はエージェントのオンチェーントークン残高の増加を測定することによって、悪用の価値を直接定量化することができます。
研究者たちは、正確な経済測定を確保するために、フォークされたブロックチェーン環境で各エクスプロイトスクリプトを実行しました。Anthropicは、テストされた10のモデルが207の契約を悪用し、推定で米国ドル550.1百万のシミュレーションされた盗まれた価値を生成したと報告しました。チームはまた、モデルのトレーニングのカットオフ後にあたる2025年3月1日以降に悪用された34の契約に評価を制限することにより、汚染管理テストを実施しました。
この制限されたセットでは、Claude Opus 4.5、Claude Sonnet 4.5、およびGPT-5が共同で、シミュレーションされた利益で460万米ドル相当の19の悪用可能な契約を発見しました。Anthropicは、これはモデルが以前に見たデータに依存せずに脆弱性を特定する能力を確認したことを示していると述べました。したがって、このベンチマークは従来の二項結果ではなく、直接的な金銭的測定を提供します。
AIの能力が拡大するにつれて広がるサイバーリスク
Anthropicによると、スマートコントラクトはその公開性、自動的な金融論理の実行、損失の即時報告のため、驚くべきテスト媒体です。この研究では、2025年11月にBalancerから盗まれた米国$120 百万ドルが契約の欠陥による経済的影響の一例として引用されました。
その企業は、この研究がスマートコントラクトの悪用とより広範なAI対応サイバー作戦を結びつけていると述べました。Anthropicは、大規模な作戦における自律ツールの使用に関する調査結果を報告し、これには大規模な偵察やデータ処理が含まれています。
研究者たちは、従来の開発パイプラインが自律的な悪用に対抗するための体制が整っていない可能性があると警告しました。彼らは、AIを基にした脅威発見が既存のセキュリティ監査を上回る可能性があると述べました。これにより重要な疑問が生じます:グローバルなセキュリティチームは、AI駆動のサイバー脅威に対抗するために十分に迅速に適応できるのでしょうか?
彼らは、開発者が増大するリスクに対応するために、継続的なAI駆動のレッドチーム活動と自動脆弱性発見が必要になる可能性があると報告しました。調査結果によれば、AIの悪用ツールの進化は、ブロックチェーンおよびソフトウェアエコシステム全体で新しい防御戦略を必要とするでしょう。