GateUser-9c809642
大家都知道,在金融、醫療、法律等垂直應用領域,採用大型AI模型的最大障礙是"結果的幻覺"問題,這些結果在實際應用場景中無法滿足準確性的要求。如何解決這個問題?最近,@Mira_Network 啟動了公共測試網絡,提供了一套解決方案,所以我來告訴你,事情是這樣的:
首先,大型AI模型的工具有 "幻覺 "的情況,這些情況所有人都可能感受到,主要原因有兩個:
AI LLM的訓練數據不足夠全面,儘管數據量已經非常龐大,但仍然無法涵蓋一些小眾或專業信息,在這種情況下,AI往往會出現"創造性補充",這反過來會導致一些實時錯誤;
AI LLMs 本質上依賴於 "概率抽樣",它涉及到在訓練數據中識別統計模式和相關性,而不是實際的 "理解"。因此,概率選擇的隨機性、學習結果的不一致性和推理可能導致 AI 在處理高精度事實問題時出現錯誤;
如何解決這個問題?在康奈爾大學的ArXiv平臺上發表了一篇文章,描述了幾種模型的聯合驗證方法,以提高LLMs結果的可靠性。
簡單的理解是首先允許主模型生成結果,然後結合多個驗證模型進行“多數投票分析”,以減少模型中出現的“幻覺”。
在一系列下探中發現,這種方法可以將AI輸出的準確性提高到95.6%。
因此,毫無疑問,需要一個分佈式平臺來驗證,以管理和核實主模型與驗證模型之間的合作過程。Mira Network 是這樣一箇中介網絡,專門為 AI LLMs 的驗證而創建
查看原文首先,大型AI模型的工具有 "幻覺 "的情況,這些情況所有人都可能感受到,主要原因有兩個:
AI LLM的訓練數據不足夠全面,儘管數據量已經非常龐大,但仍然無法涵蓋一些小眾或專業信息,在這種情況下,AI往往會出現"創造性補充",這反過來會導致一些實時錯誤;
AI LLMs 本質上依賴於 "概率抽樣",它涉及到在訓練數據中識別統計模式和相關性,而不是實際的 "理解"。因此,概率選擇的隨機性、學習結果的不一致性和推理可能導致 AI 在處理高精度事實問題時出現錯誤;
如何解決這個問題?在康奈爾大學的ArXiv平臺上發表了一篇文章,描述了幾種模型的聯合驗證方法,以提高LLMs結果的可靠性。
簡單的理解是首先允許主模型生成結果,然後結合多個驗證模型進行“多數投票分析”,以減少模型中出現的“幻覺”。
在一系列下探中發現,這種方法可以將AI輸出的準確性提高到95.6%。
因此,毫無疑問,需要一個分佈式平臺來驗證,以管理和核實主模型與驗證模型之間的合作過程。Mira Network 是這樣一箇中介網絡,專門為 AI LLMs 的驗證而創建