聊天用户界面语言模型与基于终端的人工智能代理?空档是巨大的。
我注意到的是:聊天机器人界面滋生不准确性。为什么?没有立即的方式来核实它们的回答。它们会自信地给你提供胡说八道,而你直到后来才会发现。
终端代理呢?那是另一个故事。当一个 AI 生活在你的命令行中,每个输出都会立即进行测试。运行代码,检查结果,立即发现问题。
聊天界面缺乏实时验证会导致信任问题。这些模型会产生幻觉细节、捏造来源,并将猜测呈现为事实。如果反馈循环中没有摩擦,错误的输出就会不受挑战。
也许解决方案不是更好的模型,而是更好的环境,促使问责。
查看原文