Ramp Labs เสนอแนวทางใหม่สำหรับการแชร์หน่วยความจำแบบหลายเอเจนต์ โดยการใช้โทเคนสูงสุดลดลง 65%

GateNews

ข่าว Gate News วันที่ 11 เมษายน บริษัทโครงสร้างพื้นฐานด้าน AI Ramp Labs เปิดเผยผลการวิจัย “Latent Briefing” โดยบีบอัดแคช KV ของโมเดลขนาดใหญ่โดยตรงเพื่อทำให้เกิดการแชร์ความจำอย่างมีประสิทธิภาพระหว่างระบบหลายเอเจนต์ (multi-agent) ภายใต้เงื่อนไขที่ไม่ทำให้ความแม่นยกลดลง และลดการใช้ Token ได้อย่างมาก ในสถาปัตยกรรมหลายเอเจนต์ที่เป็นกระแสหลัก ผู้ประสานงาน (Orchestrator)จะแยกงานออกและเรียกใช้โมเดลผู้ปฏิบัติงาน (Worker)ซ้ำ ๆ เมื่อระยะเส้นทางการอนุมาน (inference) ยาวขึ้น ปริมาณ Token ก็จะเพิ่มขึ้นแบบทวีคูณ Latent Briefing มีแนวคิดหลักคือใช้กลไกความสนใจ (attention) เพื่อระบุส่วนที่สำคัญจริง ๆ ในบริบท จากนั้นจึงทิ้งข้อมูลที่ซ้ำซ้อนทันทีในชั้นการแทนค่า (representation) ไม่ใช่พึ่งพาสรุปด้วย LLM ที่ช้ากว่า หรือการค้นคืน RAG ที่เสถียรภาพต่ำ ในการทดสอบเกณฑ์มาตรฐาน LongBench v2 วิธีนี้ทำผลงานได้เด่น: การใช้ Token ของโมเดล Worker ลดลง 65% การประหยัด Token สำหรับเอกสารความยาวปานกลาง (32k ถึง 100k) มีค่ามัธยฐานอยู่ที่ 49% ความแม่นยำโดยรวมสูงขึ้นประมาณ 3 จุดเปอร์เซ็นต์เมื่อเทียบกับฐาน (baseline) และเวลาเพิ่มเติมที่ใช้สำหรับการบีบอัดแต่ละครั้งอยู่ที่ราว 1.7 วินาทีเท่านั้น ทำให้เร็วขึ้นประมาณ 20 เท่าจากอัลกอริทึมเดิม การทดลองใช้ Claude Sonnet 4 เป็นผู้ประสานงาน และ Qwen3-14B เป็นโมเดลผู้ปฏิบัติงาน ครอบคลุมสถานการณ์เอกสารหลายประเภท เช่น บทความวิชาการ เอกสารทางกฎหมาย นวนิยาย และรายงานของรัฐบาล งานวิจัยยังพบว่า “ขีดจำกัดการบีบอัดที่เหมาะสมที่สุด” จะแตกต่างกันตามความยากของงานและความยาวของเอกสาร—งานที่ยากเหมาะกับการบีบอัดแบบก้าวร้าวเพื่อกรองสัญญาณรบกวนจากการอนุมานเชิงคาดเดา (speculative) ขณะที่เอกสารยาวเหมาะกับการบีบอัดแบบเบาเพื่อคงรักษาข้อมูลสำคัญที่กระจายอยู่

news.article.disclaimer
แสดงความคิดเห็น
0/400
ไม่มีความคิดเห็น