Оновлення Gate News: 11 квітня компанія з інфраструктури для AI Ramp Labs опублікувала результати дослідження «Latent Briefing». Вона забезпечує ефективний обмін пам’яттю між багатосистемними агентами шляхом прямого стиснення KV-кешу великих мовних моделей, значно зменшуючи витрати на Token без втрати точності. У більшості поширених архітектур багатосистемних агентів оркестратор (Orchestrator) розкладає завдання на частини та неодноразово викликає модель робітника (Worker). У міру того, як ланцюжок міркувань постійно подовжується, обсяг Token стрімко зростає експоненційно. Ключова ідея Latent Briefing полягає в тому, щоб за допомогою механізму уваги визначити в контексті справді важливі фрагменти, а в шарі представлення прямо відкидати надлишкову інформацію, а не покладатися на повільні LLM-зведення або ненадійний RAG-пошук. У бенчмарку LongBench v2 цей підхід показав вражаючі результати: витрати Token у моделі Worker знизилися на 65%, а медіанна економія Token для документів середньої довжини (32k до 100k) досягла 49%. Загальна точність підвищилася приблизно на 3 відсоткові пункти порівняно з базовим рівнем, тоді як додатковий час на кожне стиснення становить лише близько 1,7 секунди, що прискорює роботу приблизно у 20 разів порівняно з початковим алгоритмом. Експерименти проводилися з Claude Sonnet 4 як оркестратором і Qwen3-14B як моделлю робітника, охоплюючи сценарії з документами різних типів, зокрема наукові статті, юридичні документи, романи та урядові звіти. Дослідження також виявило, що оптимальний поріг стиснення залежить від складності завдання та довжини документа: для складних задач підходить більш агресивне стиснення, щоб відфільтрувати шум спекулятивного міркування, а для довгих документів краще підходить м’яке стиснення, щоб зберегти розосереджену ключову інформацію.