رسالة أخبار البوابة، 22 أبريل — أطلقت Google Research ReasoningBank، وهو إطار عمل لِـذاكرة الوكلاء يتيح لوكلاء مدفوعين بنماذج لغوية كبيرة التعلّم بشكل مستمر بعد النشر. يستخرج الإطار استراتيجيات استدلال عامة من تجارب المهام الناجحة والفاشلة على حد سواء، ويخزنها في “بنك ذاكرة” للاسترجاع والتنفيذ في مهام مستقبلية مماثلة. نُشرت الورقة البحثية ذات الصلة في ICLR، وتم فتح مصدر الكود على GitHub.
يُحسّن ReasoningBank نهجين قائمين: Synapse، الذي يسجل مسارات الإجراءات الكاملة لكنه يملك قابلية نقل محدودة بسبب الدقة الحبيبية، وAgent Workflow Memory، الذي يتعلم فقط من الحالات الناجحة. يُجري ReasoningBank تغيئين رئيسيين: تخزين “أنماط الاستدلال” بدلًا من “تسلسلات الإجراءات”، حيث تحتوي كل ذاكرة على حقول منظمة للعُنوان والوصف والمحتوى؛ وإدماج مسارات الفشل في التعلم. يستخدم الإطار نموذجًا لتقييم مسارات التنفيذ ذاتيًا، محوّلًا تجارب الفشل إلى قواعد لتجنّب الوقوع في المزالق. على سبيل المثال، تصبح القاعدة “انقر على زر تحميل المزيد عندما يتم رؤيته” “تحقق أولًا من مُعرّف الصفحة الحالية، وتجنب حلقات التمرير اللانهائي، ثم انقر على تحميل المزيد.”
تُقدّم الورقة أيضًا Memory-aware Test-time Scaling (MaTTS)، التي تخصص قدرة حسابية إضافية أثناء الاستدلال لاستكشاف عدة مسارات وتخزين النتائج في بنك الذاكرة. يقوم التوسّع الموازي بتشغيل عدة مسارات مميزة للاتّكال نفسه، مما يصقل استراتيجيات أكثر متانة عبر المقارنة الذاتية؛ بينما يقوم التوسّع التسلسلي بتحسين مسار واحد بشكل تكراري، مع تخزين التفكير الوسيط في الذاكرة.
في مهام متصفح WebArena ومهام الترميز SWE-Bench-Verified باستخدام Gemini 2.5 Flash كوكيل ReAct، حقق ReasoningBank معدل نجاح أعلى بنسبة 8.3% على WebArena وأعلى بنسبة 4.6% على SWE-Bench-Verified مقارنةً بخط أساس دون ذاكرة، مع تقليل متوسط الخطوات لكل مهمة بحوالي 3. وبإضافة MaTTS مع التوسّع الموازي (k=5)، تحسّن كذلك معدل نجاح WebArena بمقدار 3 نقاط مئوية إضافية وانخفض عدد الخطوات بمقدار 0.4 أخرى.
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى
إخلاء المسؤولية.
مقالات ذات صلة
PicWe 推出具备设备端密钥管理的 AI 代理钱包
PicWe 宣布 PicWe 钱包的公开测试版,该钱包是一种由 AI 代理赋能、支持离线设备端密钥管理的钱包,并且无需恢复短语。它支持多链资产、兑换、AI 可访问的自动化,并旨在统一 RWA 基础设施。
PicWe 已推出 PicWe 钱包的公开测试版:这是一款由 AI 代理赋能的钱包,会将密钥存储在设备端,消除恢复短语,并使关键操作保持在本地。测试版支持多链资产管理、兑换,以及基于稳定币的费用,同时支持可编程的 AI 交互。更广泛的 PicWe 计划将该平台定位为面向真实世界资产的统一基础设施,使其能够用于发行、流通、结算、跨境支付、代币化以及企业用例的供应链协同。
GateNewsمنذ 41 د
Hugging Face 开源 ml-intern:面向自主 ML 研究的 AI 代理
开源的 ml-intern,Hugging Face 的自主 ML 研究代理,会阅读论文、策划数据、训练、评估,并在科学、医学和数学领域持续迭代。
摘要:Hugging Face 的 ml-intern 是一个开源的自主 ML 研究代理:它会阅读论文、整理数据集,在本地或云端 GPU 上训练、评估结果,并迭代改进。它基于 smolagents,并提供 CLI 和网页界面,可在 arXiv/HF Papers、HF Hub 和 HF Jobs 之间导航。演示覆盖科学、医学和数学,展示端到端自动化以及性能提升。
GateNewsمنذ 46 د
清华教授戴继锋推出 Naive.ai,融资约 $300M ,估值 $800M
Gate News 消息,4月22日——清华大学电子工程系副教授戴继锋创立了 Naive.ai,这是一家专注于开源模型后训练和 AI 代理的公司。该初创公司已融资约 $300 百万,估值约为 80
GateNewsمنذ 2 س
AWS توسّع سير عمل الذكاء الاصطناعي متعدد العوامل، وتدعم Claude Opus 4.7 على Bedrock
رسالة Gate News في 22 أبريل — أعلنت شركة Amazon Web Services عن توسيع مبادراتها الخاصة بالذكاء الاصطناعي الوكيل من خلال سير عمل متعدد العوامل، مع دعم Anthropic's Claude Opus 4.7 على Amazon Bedrock لمساعدة العملاء على تجاوز تجارب الطيار الخاصة بالذكاء الاصطناعي التوليدي. وتقوم الشركة بتوسيع علاقاتها مع الشركاء بينما ينتقل العملاء من أدوات ذكاء اصطناعي مفردة إلى أنظمة تربط بين عدة وكلاء متخصصين،
GateNewsمنذ 2 س
0G Labs تتعاون مع Alibaba Cloud لتمكين وصول وكلاء الذكاء الاصطناعي على السلسلة إلى نموذج Qwen
بوابة الأخبار، 22 أبريل — أعلنت 0G Labs عن شراكة مع Alibaba Cloud لتمكين وكلاء الذكاء الاصطناعي من استدعاء نموذج اللغة الكبير Qwen الخاص بـ Alibaba مباشرةً على السلسلة عبر البنية التحتية للبلوك تشين التابعة لـ 0G. وتُشير هذه الشراكة إلى تحول في نماذج الوصول إلى الذكاء الاصطناعي من الأساليب القائمة على واجهات برمجة التطبيقات إلى
GateNewsمنذ 3 س
0G يدمج نموذج LLM لـ Alibaba Cloud Qianwen، ويُعد أول وكيل ذكاء اصطناعي على السلسلة يحصل على إمكانية الوصول إلى نموذج لغوي تجاري
0G基金会于4月21日宣布与阿里云正式合作,将千文(Qwen)大型语言模型引入去中心化基础设施,使AI代理能够直接从链上环境调用商用级LLM。开发者将通过代币门控访问机制使用千文推理功能,有效地将LLM调用转换为链上可计量的操作,使千文成为首批嵌入去中心化代理框架的主要商用LLM之一。
MarketWhisperمنذ 4 س