聊天用戶界面語言模型與基於終端的人工智能代理?空檔是巨大的。
我注意到的是:聊天機器人界面滋生不準確性。爲什麼?沒有立即的方式來核實它們的回答。它們會自信地給你提供胡說八道,而你直到後來才會發現。
終端代理呢?那是另一個故事。當一個 AI 生活在你的命令行中,每個輸出都會立即進行測試。運行代碼,檢查結果,立即發現問題。
聊天界面缺乏實時驗證會導致信任問題。這些模型會產生幻覺細節、捏造來源,並將猜測呈現爲事實。如果反饋循環中沒有摩擦,錯誤的輸出就會不受挑戰。
也許解決方案不是更好的模型,而是更好的環境,促使問責。
查看原文