Повідомлення Gate News, 22 квітня — Google Research опублікувала ReasoningBank, фреймворк пам’яті агентів, який дає змогу агентам, керованим великими мовними моделями, безперервно вчитись після розгортання. Фреймворк витягує універсальні стратегії міркування як з успішних, так і з невдалих досвідів виконання завдань, зберігаючи їх у банку пам’яті для пошуку та виконання під час подібних майбутніх завдань. Відповідна стаття була опублікована в ICLR, а код відкрито на GitHub.
ReasoningBank удосконалює два наявні підходи: Synapse, який записує повні траєкторії дій, але має обмежену переносимість через дрібнозернисту деталізацію, та Agent Workflow Memory, яка навчається лише на успішних випадках. ReasoningBank вносить дві ключові зміни: зберігання “patternів міркування” замість “послідовностей дій”, де кожна пам’ять містить структуровані поля для назви, опису та вмісту; і включення невдалих траєкторій у процес навчання. Фреймворк використовує модель для самостійної оцінки траєкторій виконання, перетворюючи невдалий досвід на правила проти типових помилок. Наприклад, правило “клікніть кнопку Load More, коли її побачите” еволюціонує в “спершу перевірте ідентифікатор поточної сторінки, уникайте нескінченних циклів прокрутки, а потім натисніть load more.”
Стаття також вводить Memory-aware Test-time Scaling (MaTTS), яке виділяє додаткові обчислення під час інференсу, щоб досліджувати кілька траєкторій і зберігати результати в банку пам’яті. Паралельне розгортання виконує кілька різних траєкторій для одного й того ж завдання, уточнюючи більш надійні стратегії через самопорівняння; послідовне розгортання ітеративно уточнює одну траєкторію, зберігаючи проміжне міркування в пам’яті.
У браузерних задачах WebArena та задачах кодування SWE-Bench-Verified із використанням Gemini 2.5 Flash як агента ReAct, ReasoningBank досягла на 8.3% вищого рівня успіху на WebArena та на 4.6% вищого на SWE-Bench-Verified порівняно з базовим підходом без пам’яті, зменшивши середню кількість кроків на завдання приблизно на 3. Додавання MaTTS із паралельним розгортанням (k=5) ще більше покращило рівень успіху на WebArena на 3 відсоткові пункти та зменшило кількість кроків додатково на 0.4.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
PicWe запускає гаманець із AI-агентом та керуванням ключами на пристрої
PicWe оголошує публічну бета-версію PicWe Wallet — гаманця з підтримкою AI-агентів, що працює на пристрої користувача та не використовує відновлювальні фрази. Він підтримує мультиланцюгові активи, обміни, автоматизацію, доступну для AI, і має на меті об’єднати інфраструктуру RWA.
PicWe запустила публічну бета-версію PicWe Wallet — гаманця з AI-агентами, який зберігає ключі на пристрої, усуває потребу у відновлювальних фразах і тримає критичні операції локально. Бета підтримує керування мультиланцюговими активами, обміни та комісії на основі стейблкоїнів, одночасно надаючи можливість програмованих взаємодій із AI. Більш широкі ініціативи PicWe формують платформу як уніфіковану інфраструктуру для реальних активів, що дає змогу випускати активи, забезпечувати їх обіг, розрахунки, транскордонні платежі, токенізацію та координацію в ланцюгах постачання для корпоративних сценаріїв використання.
GateNews41хв. тому
Hugging Face відкриває вихідний код ml-intern — AI-агент для автономних досліджень у сфері ML
Відкритий код ml-intern від Google — автономний агент ML для досліджень від Hugging Face, який читає статті, добирає дані, навчає, оцінює та вдосконалює роботу в межах науки, медицини й математики.
Анотація: ml-intern від Hugging Face — це автономний агент для досліджень ML з відкритим кодом, який читає статті, формує добірки датасетів, навчається на локальних або хмарних GPU, оцінює результати та ітерує покращення. Створений на smolagents із CLI та веб-інтерфейсами, він орієнтується в arXiv/HF Papers, HF Hub та HF Jobs. Демонстрації охоплюють науку, медицину та математику, демонструючи наскрізну автоматизацію та приріст продуктивності.
GateNews46хв. тому
Професор Цінхуа Дай Цзифен запускає Naive.ai, залучає ~$300M за оцінкою $800M
Повідомлення Gate News, 22 квітня — Дай Цзифен, доцент кафедри електронної інженерії Пекінського університету Цінхуа, заснував Naive.ai — компанію, що спеціалізується на післянавчанні відкритих моделей із відкритим кодом та AI-агентах. Стартап залучив приблизно $300 мільйонів за оціночною вартістю $80
GateNews2год тому
AWS розширює багатoагентні AI-робочі процеси та підтримує Claude Opus 4.7 на Bedrock
Повідомлення Gate News, 22 квітня — Amazon Web Services оголосила про розширення своїх ініціатив агентного ШІ через багатoагентні робочі процеси, підтримуючи Anthropic's Claude Opus 4.7 на Amazon Bedrock, щоб допомогти клієнтам вийти за межі пілотів генеративного ШІ. Компанія розширює партнерські відносини, оскільки клієнти переходять від окремих інструментів ШІ до систем, що з’єднують кілька спеціалізованих агентів.
GateNews2год тому
0G Labs співпрацює з Alibaba Cloud, щоб надати доступ до ончейн AI-агентів до моделі Qwen
Повідомлення Gate News, 22 квітня — 0G Labs оголосила про партнерство з Alibaba Cloud, щоб увімкнути AI-агентам можливість напряму викликати в мережі блокчейну велику мовну модель Alibaba Qwen через блокчейн-інфраструктуру 0G. Співпраця знаменує перехід у парадигмах доступу до ШІ від підходів на основі API до програмованої токенізованої AI-інфраструктури, де AI-агенти можуть викликати Qwen для виведення (inference) безпосередньо в мережі 0G, а перевірку забезпечує 0G.
GateNews3год тому
0G інтегрує Alibaba Cloud Qianwen LLM, перший на блокчейні AI-агент отримав доступ до комерційних великомасштабних моделей
0G Фонд 21 квітня оголосив про офіційну співпрацю з Aliyun, щоб ввести в децентралізовану інфраструктуру велику мовну модель Тисячі слів (Qwen), даючи змогу AI-агентам напряму викликати комерційні LLM із середовища в ланцюжку. Розробники зможуть використовувати можливості виведення Qwen через механізм доступу з токенним керуванням, ефективно перетворюючи виклики LLM на такі дії, які можна обліковувати в ланцюжку, роблячи Qwen одним із перших основних комерційних LLM, вбудованих у децентралізовані агентські фреймворки.
MarketWhisper4год тому