โมเดล AI แนวหน้าแสดงความสามารถระดับมนุษย์ในการใช้ประโยชน์จากสัญญาอัจฉริยะ

Decrypt
IN5.73%

สั้นๆ

  • Anthropic ทดลองใช้โมเดล AI สิบตัวกับการโจมตี smart contract ในอดีต 405 ครั้งและสามารถทำซ้ำได้ 207 ครั้ง.
  • โมเดลสามตัวสร้างผลกำไร $4.6 ล้านจากการโจมตีจำลองในสัญญาที่สร้างขึ้นหลังจากวันที่ตัดการฝึกอบรมของพวกเขา.
  • ตัวแทนยังค้นพบช่องโหว่ zero-day สองช่องโหว่ใหม่ในสัญญา Binance Smart Chain ล่าสุด.

ศูนย์กลางศิลปะ แฟชั่น และความบันเทิงของ Decrypt.


ค้นพบ SCENE

ตามข้อมูลใหม่ที่เผยแพร่เมื่อวันจันทร์โดย Anthropic ตัวแทน AI มีประสิทธิภาพเทียบเท่ากับผู้โจมตีที่มีทักษะในการโจมตีสมาร์ทคอนแทรคมากกว่าครึ่งหนึ่งของการโจมตีที่บันทึกไว้บนบล็อกเชนหลักในช่วง 5 ปีที่ผ่านมา

Anthropic ได้ประเมินโมเดลแนวหน้าสิบโมเดล รวมถึง Llama 3, Sonnet 3.7, Opus 4, GPT-5, และ DeepSeek V3 โดยใช้ชุดข้อมูลของการโจมตีสัญญาอัจฉริยะในอดีตจำนวน 405 ครั้ง ตัวแทนสร้างการโจมตีที่ทำงานได้ต่อ 207 จากทั้งหมด รวมเป็นเงินที่ถูกขโมยจำลองรวม $550 ล้าน.

ผลการศึกษาชี้ให้เห็นว่าระบบอัตโนมัติสามารถใช้ประโยชน์จากช่องโหว่ได้อย่างรวดเร็วและระบุช่องโหว่ใหม่ ๆ ที่นักพัฒนายังไม่ได้แก้ไข

การเปิดเผยใหม่ล่าสุดคือการเปิดเผยล่าสุดจากนักพัฒนาของ Claude AI เมื่อเดือนที่แล้ว Anthropic ได้อธิบายว่าผู้แฮ็กชาวจีนใช้ Claude Code เพื่อเปิดตัวสิ่งที่พวกเขาเรียกว่าเป็นการโจมตีทางไซเบอร์ที่ขับเคลื่อนด้วย AI ครั้งแรก

ผู้เชี่ยวชาญด้านความปลอดภัยกล่าวว่าผลลัพธ์ยืนยันว่าข้อบกพร่องเหล่านี้สามารถเข้าถึงได้ง่ายเพียงใด

“AI กำลังถูกนำมาใช้ในเครื่องมือ ASPM เช่น Wiz Code และ Apiiro รวมถึงในเครื่องมือสแกน SAST และ DAST มาตรฐาน” David Schwed, COO ของ SovereignAI กล่าวกับ Decrypt. “นั่นหมายความว่าผู้ไม่หวังดีจะใช้เทคโนโลยีเดียวกันนี้ในการระบุช่องโหว่.”

Schwed กล่าวว่า การโจมตีที่ขับเคลื่อนด้วยโมเดลซึ่งอธิบายไว้ในรายงานจะสามารถขยายขนาดได้อย่างตรงไปตรงมา เพราะมีช่องโหว่มากมายที่มีการเปิดเผยต่อสาธารณะแล้วผ่าน Common Vulnerabilities and Exposures หรือรายงานการตรวจสอบ ทำให้สามารถเรียนรู้ได้โดยระบบ AI และทำได้ง่ายต่อการโจมตีสัญญาอัจฉริยะที่มีอยู่.

“การค้นหาช่องโหว่ที่เปิดเผยจะง่ายยิ่งขึ้น ค้นหาโครงการที่แยกย่อยจากโครงการนั้น และลองใช้ช่องโหว่นั้น ซึ่งอาจยังไม่ได้รับการแก้ไข” เขากล่าว “ทั้งหมดนี้สามารถทำได้ตลอด 24 ชั่วโมง 7 วันต่อสัปดาห์ ต่อทุกโครงการ แม้แต่โครงการที่มี TVL ขนาดเล็กในขณะนี้ก็ยังเป็นเป้าหมาย เพราะทำไมไม่ล่ะ? มันมีความเป็นตัวของตัวเอง.”

เพื่อวัดความสามารถในปัจจุบัน Anthropic ได้ทำการวาดกราฟรายได้จากการใช้ประโยชน์ทั้งหมดของแต่ละโมเดลเมื่อเปรียบเทียบกับวันที่ปล่อย โดยใช้เฉพาะ 34 สัญญาที่ถูกใช้ประโยชน์หลังเดือนมีนาคม 2025.

“แม้ว่ารายได้จากการโจมตีทั้งหมดจะเป็นมาตรวัดที่ไม่สมบูรณ์—เนื่องจากการโจมตีบางครั้งที่โดดเด่นมีผลต่อรายได้ทั้งหมด—เราเน้นมาตรวัดนี้มากกว่าระดับความสำเร็จในการโจมตีเพราะผู้โจมตีสนใจเกี่ยวกับจำนวนเงินที่ตัวแทน AI สามารถดึงออกมาได้ ไม่ใช่จำนวนหรือความยากของข้อบกพร่องที่พวกเขาพบ” บริษัทกล่าว.

Anthropic ยังไม่ได้ตอบกลับคำขอความคิดเห็นจาก Decrypt.

Anthropic กล่าวว่าพวกเขาได้ทดสอบเอเย่นต์บนชุดข้อมูล zero-day จำนวน 2,849 สัญญาที่ดึงมาจากมากกว่า 9.4 ล้านสัญญาใน Binance Smart Chain.

บริษัทกล่าวว่า Claude Sonnet 4.5 และ GPT-5 ต่างพบข้อบกพร่องที่ไม่เปิดเผยจำนวนสองข้อซึ่งสร้างมูลค่าในรูปแบบจำลองจำนวน $3,694 โดย GPT-5 สามารถทำผลลัพธ์ได้ที่ค่าใช้จ่าย API จำนวน $3,476 แอนโทรปิกชี้ให้เห็นว่าการทดสอบทั้งหมดทำงานในสภาพแวดล้อมที่ถูกจำกัดซึ่งจำลองบล็อกเชนและไม่ใช่เครือข่ายจริง

โมเดลที่แข็งแกร่งที่สุดของมัน, Claude Opus 4.5, ได้ใช้ประโยชน์จากช่องโหว่ 17 รายการหลังจากเดือนมีนาคม 2025 และคิดเป็นมูลค่าจำลองรวม 4.5 ล้านดอลลาร์.

บริษัทได้เชื่อมโยงการปรับปรุงระหว่างรุ่นต่างๆ กับความก้าวหน้าในการใช้เครื่องมือ การฟื้นฟูข้อผิดพลาด และการดำเนินงานในระยะยาว ในสี่รุ่นของโมเดล Claude ต้นทุนโทเคนลดลง 70.2%.

หนึ่งในข้อบกพร่องที่เพิ่งค้นพบเกี่ยวข้องกับสัญญาโทเค็นที่มีฟังก์ชันเครื่องคิดเลขสาธารณะที่ขาดตัวปรับมุมมอง ซึ่งทำให้ตัวแทนสามารถเปลี่ยนแปลงตัวแปรสถานะภายในซ้ำ ๆ และขายยอดคงเหลือที่เพิ่มขึ้นในตลาดแลกเปลี่ยนแบบกระจายศูนย์ การโจมตีจำลองสร้างรายได้ประมาณ $2,500.

Schwed กล่าวว่า ปัญหาที่เน้นในทดลองนั้น “จริงๆ แล้วเพียงแค่ข้อบกพร่องในตรรกะทางธุรกิจ” และเสริมว่า ระบบ AI สามารถระบุจุดอ่อนเหล่านี้ได้เมื่อได้รับโครงสร้างและบริบทที่เหมาะสม.

“AI ยังสามารถค้นพบพวกเขาได้เมื่อเข้าใจว่า smart contract ควรทำงานอย่างไรและมีการชี้แจงรายละเอียดเกี่ยวกับวิธีการพยายามหลีกเลี่ยงการตรวจสอบตรรกะในกระบวนการ” เขากล่าว.

Anthropic กล่าวว่า ความสามารถที่ทำให้ตัวแทนสามารถใช้ประโยชน์จากสมาร์ทคอนแทรคยังใช้ได้กับซอฟต์แวร์ประเภทอื่น ๆ และว่าค่าใช้จ่ายที่ลดลงจะทำให้ช่วงเวลาระหว่างการนำไปใช้งานและการใช้ประโยชน์ลดลง บริษัทจึงเรียกร้องให้นักพัฒนานำเครื่องมืออัตโนมัติมาใช้ในกระบวนการรักษาความปลอดภัยของตน เพื่อให้การใช้งานในเชิงป้องกันก้าวหน้าไปอย่างรวดเร็วเท่ากับการใช้งานในเชิงโจมตี.

แม้ว่า Anthropic จะเตือน แต่ Schwed กล่าวว่าแนวโน้มไม่ได้เป็นลบเพียงอย่างเดียว.

“ฉันมักจะต่อต้านความหดหู่และบอกว่าด้วยการควบคุมที่เหมาะสม การทดสอบภายในที่เข้มงวด รวมถึงการตรวจสอบแบบเรียลไทม์และวงจรป้องกัน ส่วนใหญ่ในนี้สามารถหลีกเลี่ยงได้” เขากล่าว “ผู้ที่ทำดีมีการเข้าถึงตัวแทนเดียวกัน ดังนั้นถ้าผู้ไม่ดีสามารถหามันเจอ ผู้ที่ทำดีเองก็สามารถหามันเจอได้ เราต้องคิดและทำในแบบที่แตกต่างออกไป.”

ดูต้นฉบับ
news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น