Gate News-Nachricht, 22. April — Google Research hat ReasoningBank veröffentlicht, ein Framework für Agentenspeicher, das modellbasierte Agenten mit großen Sprachmodellen ermöglicht, nach der Bereitstellung kontinuierlich dazuzulernen. Das Framework extrahiert universelle Verarbeitungsstrategien aus sowohl erfolgreichen als auch fehlgeschlagenen Aufgaben-Erfahrungen und speichert sie in einem Speicher-Bank-System zur späteren Suche und Ausführung bei ähnlichen zukünftigen Aufgaben. Das zugehörige Paper wurde auf ICLR veröffentlicht, und der Code wurde auf GitHub open-sourced.
ReasoningBank verbessert zwei bestehende Ansätze: Synapse, das vollständige Aktionsverläufe aufzeichnet, jedoch nur eingeschränkt übertragbar ist, da es eine sehr feingranulare Granularität hat, und Agent Workflow Memory, das nur aus erfolgreichen Fällen lernt. ReasoningBank bringt zwei zentrale Änderungen: das Speichern von “reasoning patterns” statt von “action sequences”, wobei jede Memory strukturierte Felder für Titel, Beschreibung und Inhalt enthält; und das Einbeziehen von Failure-Trajectories in das Lernen. Das Framework verwendet ein Modell, um Ausführungsverläufe selbst zu bewerten, und verwandelt damit Misserfolgserfahrungen in Anti-Fallstrick-Regeln. Beispielsweise entwickelt sich die Regel “klicke auf die Schaltfläche „Load More“, wenn sie sichtbar ist” zu “prüfe zuerst die ID der aktuellen Seite, vermeide dann unendliche Scroll-Schleifen, und klicke anschließend auf „load more“.”
Das Paper führt außerdem Memory-aware Test-time Scaling (MaTTS) ein, das während der Inferenz zusätzliche Rechenleistung bereitstellt, um mehrere Verläufe zu erkunden und die Erkenntnisse in der Speicher-Bank zu speichern. Parallel Expansion führt mehrere unterschiedliche Verläufe für dieselbe Aufgabe aus und verbessert robustere Strategien durch Selbstvergleich; sequentielle Expansion verfeinert iterativ genau einen Verlauf und speichert dabei die Zwischenerkenntnisse im Speicher.
Bei WebArena-Browsing-Aufgaben und SWE-Bench-Verified-Coding-Aufgaben, bei denen Gemini 2.5 Flash als ReAct-Agent eingesetzt wird, erreichte ReasoningBank eine um 8,3% höhere Erfolgsquote bei WebArena und um 4,6% höhere bei SWE-Bench-Verified im Vergleich zu einer Baseline ohne Memory. Dabei reduzierte es die durchschnittliche Anzahl der Schritte pro Aufgabe um etwa 3. Das Hinzufügen von MaTTS mit Parallel Expansion (k=5) verbesserte die WebArena-Erfolgsquote zusätzlich um 3 Prozentpunkte und reduzierte die Schritte um weitere 0,4.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
PicWe startet KI-Agenten-Wallet mit On-Device-Key-Management
PicWe kündigt das öffentliche Beta von PicWe Wallet an, eine KI-Agenten-gestützte, On-Device-Key-Wallet ohne Wiederherstellungsphrasen. Sie unterstützt Multi-Chain-Assets, Swaps, KI-zugängliche Automatisierung und zielt darauf ab, RWA-Infrastruktur zu vereinheitlichen.
PicWe hat das öffentliche Beta von PicWe Wallet gestartet, einer KI-Agenten-gestützten Wallet, die Schlüssel auf dem Gerät speichert, Wiederherstellungsphrasen eliminiert und kritische Vorgänge lokal hält. Das Beta unterstützt das Management von Multi-Chain-Assets, Swaps und Gebührenzahlungen auf Basis von Stablecoins und ermöglicht zugleich programmierbare KI-Interaktionen. Weitergehende PicWe-Initiativen positionieren die Plattform als vereinheitlichte Infrastruktur für Real-World-Assets und ermöglichen Ausgabe, Zirkulation, Abwicklung, grenzüberschreitende Zahlungen, Tokenisierung und Koordination der Lieferkette für Unternehmensanwendungsfälle.
GateNews41M her
Hugging Face macht ml-intern Open Source: ein KI-Agent für autonome ML-Forschung
Open-Source von ml-intern: Hugging Faces autonomer Forschungsagent für maschinelles Lernen, die Papers liest, Daten kuratiert, trainiert, Ergebnisse bewertet und sich über Wissenschaft, Medizin und Mathematik hinweg iterativ verbessert.
Zusammenfassung: Hugging Faces ml-intern ist ein Open-Source, autonomer Forschungsagent für maschinelles Lernen, der Papers liest, Datensets kuratiert, auf lokalen oder Cloud-GPUs trainiert, Ergebnisse auswertet und Verbesserungen iteriert. Basierend auf smolagents mit CLI- und Web-Interfaces navigiert er durch arXiv/HF Papers, HF Hub und HF Jobs. Die Demos erstrecken sich über Wissenschaft, Medizin und Mathematik und zeigen Ende-zu-Ende-Automatisierung sowie Leistungsgewinne.
GateNews46M her
Tsinghua-Professor Dai Jifeng gründet Naive.ai und sammelt ~$300M zu einer Bewertung von $800M
Gate News-Meldung, 22. April — Dai Jifeng, außerordentlicher Professor an der Abteilung für Elektronische Ingenieurwissenschaften der Tsinghua-Universität, hat Naive.ai gegründet, ein Unternehmen mit Fokus auf Open-Source-Modell-Post-Training und KI-Agenten. Das Startup hat ungefähr $300 Millionen gesammelt, bei einer geschätzten Bewertung von $80
GateNews2Std her
AWS erweitert Multi-Agent-KI-Workflows und unterstützt Claude Opus 4.7 auf Bedrock
Gate-News-Mitteilung, 22. April — Amazon Web Services hat eine Erweiterung seiner agentischen KI-Initiativen durch Multi-Agent-Workflows angekündigt und unterstützt Anthropics Claude Opus 4.7 auf Amazon Bedrock, um Kunden dabei zu helfen, über generative KI-Piloten hinauszugehen. Das Unternehmen baut die Partnerschaften aus, während Kunden von einzelnen KI-Tools zu Systemen wechseln, die mehrere spezialisierte Agenten verbinden.
GateNews2Std her
0G Labs geht Partnerschaft mit Alibaba Cloud ein, um On-Chain-Zugriff für KI-Agenten auf das Qwen-Modell zu ermöglichen
Gate News-Update, 22. April — 0G Labs hat eine Partnerschaft mit Alibaba Cloud angekündigt, um KI-Agenten die direkte Aufrufmöglichkeit des großen Sprachmodells Alibaba Qwen On-Chain über die Blockchain-Infrastruktur von 0G zu ermöglichen. Die Zusammenarbeit markiert einen Wandel der KI-Zugriffsparadigmen von API-basierten Ansätzen hin zu
GateNews3Std her
0G integriert Alibaba Cloud Qianwen LLM, der erste On-Chain-KI-Agent erhält kommerziellen Zugriff auf ein großes Sprachmodell
Die 0G-Stiftung gab am 21. April die offizielle Partnerschaft mit Alibaba Cloud bekannt und führte das Thousand Models (Qwen) große Sprachmodell in die dezentrale Infrastruktur ein, sodass KI-Agenten direkt aus der On-Chain-Umgebung kommerzielle LLMs abrufen können. Entwickler können über ein tokenbasiertes Gatekeeping-Zugriffsmechanismus die Qwen-Inferenzfunktionen nutzen und so den Aufruf von LLMs effektiv in on-chain messbare Vorgänge umwandeln, wodurch Qwen zu einem der führenden kommerziellen LLMs gehört, die in die dezentralen Agenten-Frameworks der ersten Generation eingebettet sind.
MarketWhisper4Std her