LangChain надає агентам ШІ контроль над управлінням власною пам'яттю

Терріл Дікі

12 березня 2026, 01:55

SDK Deep Agents від LangChain тепер дозволяє моделям ШІ самостійно вирішувати, коли стиснути свої вікна контексту, зменшуючи ручне втручання у довготривалі робочі процеси агентів.

LangChain випустила оновлення свого SDK Deep Agents, яке надає моделям ШІ ключі до управління власною пам’яттю. Нова функція, оголошена 11 березня 2026 року, дозволяє агентам автономно запускати стиснення контексту, а не залежати від фіксованих порогів токенів або ручних команд користувача.

Ця зміна вирішує постійну проблему у розробці агентів: вікна контексту заповнюються в невідповідний момент. Поточні системи зазвичай стискають пам’ять, коли досягають 85% межі контексту моделі — що може статися під час рефакторингу або складного налагодження. Неправильний час призводить до втрати контексту та зламаних робочих процесів.

Чому важливий час

Стиснення контексту не нове. Техніка замінює старі повідомлення стислими підсумками, щоб утримати агентів у межах ліміту токенів. Але важливо не лише стиснути, а й коли.

Реалізація LangChain визначає кілька оптимальних моментів для стиснення: межі завдань, коли користувачі змінюють фокус, після отримання висновків із великих дослідницьких контекстів або перед початком довгих редагувань кількох файлів. Агент фактично навчається «прибиратися» перед початком складної роботи, а не панікувати, коли місця вже немає.

Дослідження Factory AI, опубліковане у грудні 2024 року, підтверджує цей підхід. Аналіз показав, що структуроване підсумовування — збереження безперервності контексту, а не агресивне обрізання — є критичним для складних завдань агентів, таких як налагодження. Агенти, що зберігали структуру робочого процесу, значно перевищували за продуктивністю тих, що використовували просте обрізання.

Технічна реалізація

Інструмент поставляється як проміжне програмне забезпечення для SDK Deep Agents (Python) і інтегрується з існуючим CLI. Розробники додають його до конфігурації агента:

Система зберігає 10% доступного контексту як недавні повідомлення, одночасно підсумовуючи все попереднє. LangChain передбачила механізм безпеки — повна історія розмов зберігається у віртуальній файловій системі агента, що дозволяє відновити дані у разі помилки стиснення.

Внутрішні тести показали, що агенти обережно запускають стиснення. LangChain підтвердила цю функцію за допомогою бенчмарку Terminal-bench-2 та власних оцінювальних наборів із використанням трас LangSmith. Коли агенти автоматично стиснули контекст, вони послідовно обирали моменти, що покращували безперервність робочого процесу.

Загальна картина

Це оновлення відображає ширший зсув у філософії архітектури агентів. LangChain явно посилається на «гіркий урок» Річарда Саттона — спостереження, що загальні методи, що використовують обчислення, з часом перевершують ручне налаштування.

Замість того, щоб розробники ретельно налаштовували, коли агенти мають керувати пам’яттю, ця функція делегує це рішення моделі. Це ставка на те, що можливості міркування у моделях, таких як GPT-5.4, досягли рівня, коли вони можуть надійно приймати ці операційні рішення.

Для розробників, що створюють довготривалі або інтерактивні агенти, ця функція доступна через SDK і опціонально через команду /compact у CLI. Практичний ефект: менше перерваних робочих процесів і менше необхідності втручатися у межі контексту, які більшість кінцевих користувачів і так не розуміють.

Джерело зображення: Shutterstock

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити