大家都知道,在金融、醫療、法律等垂直應用領域,採用大型AI模型的最大障礙是"結果的幻覺"問題,這些結果在實際應用場景中無法滿足準確性的要求。如何解決這個問題?最近,@Mira_Network 啟動了公共測試網絡,提供了一套解決方案,所以我來告訴你,事情是這樣的:


首先,大型AI模型的工具有 "幻覺 "的情況,這些情況所有人都可能感受到,主要原因有兩個:
AI LLM的訓練數據不足夠全面,儘管數據量已經非常龐大,但仍然無法涵蓋一些小眾或專業信息,在這種情況下,AI往往會出現"創造性補充",這反過來會導致一些實時錯誤;
AI LLMs 本質上依賴於 "概率抽樣",它涉及到在訓練數據中識別統計模式和相關性,而不是實際的 "理解"。因此,概率選擇的隨機性、學習結果的不一致性和推理可能導致 AI 在處理高精度事實問題時出現錯誤;
如何解決這個問題?在康奈爾大學的ArXiv平臺上發表了一篇文章,描述了幾種模型的聯合驗證方法,以提高LLMs結果的可靠性。
簡單的理解是首先允許主模型生成結果,然後結合多個驗證模型進行“多數投票分析”,以減少模型中出現的“幻覺”。
在一系列下探中發現,這種方法可以將AI輸出的準確性提高到95.6%。
因此,毫無疑問,需要一個分佈式平臺來驗證,以管理和核實主模型與驗證模型之間的合作過程。Mira Network 是這樣一箇中介網絡,專門為 AI LLMs 的驗證而創建,它在用戶與基礎 AI 模型之間建立了可靠的驗證層。
由於這一網絡的存在,驗證級別可以實現集成服務,包括隱私保護、確保準確性、可擴展設計、標準化API接口及其他集成服務,同時在不同的細分應用場景中,AI的植入能力可以通過降低AI LLM的輸出幻覺來擴展,這也是在通過加密驗證的分佈式網絡實施AI LLM項目過程中的一種實踐。
例如,Mira Network 分享了幾個區塊鏈在金融、教育和環境領域的案例,以證明:
在Gigabrain交易平臺上集成Mira後,系統可以增加一個驗證市場分析和預測準確性的層級,通過過濾不可靠的提議,從而提高AI交易信號的準確性,使AI LLMs在DeFi場景中的應用更加可靠。
Learnrite 使用 mira 來驗證由人工智能生成的標準化測試題,使教育機構能夠在不損害教育測試內容的準確性的情況下,以規模使用人工智能創建的內容,以支持嚴格的教育標準;
Kernel 區塊鏈項目利用 Mira 的 LLM 共識機制,將其集成到 BNB 生態系統中,創建一個去中心化的 DVN 驗證網絡,為在區塊鏈上執行 AI 計算提供一定程度的準確性和安全性。
MIRA4.48%
DEFI-1.42%
BNB1.06%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt