BlockBeats Nachrichten, 6. Februar, hat GoPlus Security kürzlich den GoPlus AgentGuard vorgestellt, eine native Sicherheitsfähigkeit für AI Agents, die darauf abzielt, die Sicherheitsrisiken auf Ausführungsebene zu lösen, die nach der Verbreitung von AI Agents auftreten.
Mit der Fähigkeit von AI Agents, echte Ausführungen durchzuführen (wie Befehlsausführung, Datei-Lesen und -Schreiben, Service-Aufrufe sowie On-Chain-Transaktionen und Signaturen), haben sich die Risiken von „falschen Antworten“ zu Ausführungsrisiken entwickelt, die direkt Systemzerstörung, Datenlecks oder finanziellen Verlust verursachen können. GoPlus basiert auf seiner langjährigen technischen Erfahrung im Bereich Sicherheit und Transaktionsrisikomanagement auf Web3-Blockchains und bringt Sicherheitsfunktionen vor die tatsächliche Ausführung von AI.
Der GoPlus AgentGuard nutzt einen Mechanismus aus „Laufzeit-Interception + bedarfsgesteuerter Tiefenprüfung“, um risikoreiche Aktionen zu blockieren, zu bestätigen oder freizugeben und bewertet das Risiko der Aktionen vor der Ausführung durch den AI Agent. Dies ist ein spezieller Sicherheitsmechanismus auf Ausführungsebene, der verhindert, dass AI Agents „willkürlich ausführen, überschreiten oder gefährliche Aktionen durchführen“, sodass Nutzer OpenClaw sicher und sorgenfrei verwenden können. AgentGuard ist jetzt Open Source und für AI Builder und Entwickler offen zugänglich.