大家都知道,在金融、医疗、法律等垂直应用领域,采用大型AI模型的最大障碍是"结果的幻觉"问题,这些结果在实际应用场景中无法满足准确性的要求。如何解决这个问题?最近,@Mira_Network 启动了公共测试网络,提供了一套解决方案,所以我来告诉你,事情是这样的:


首先,大型AI模型的工具有 "幻觉 "的情况,这些情况所有人都可能感受到,主要原因有两个:
AI LLM的训练数据不足够全面,尽管数据量已经非常庞大,但仍然无法涵盖一些小众或专业信息,在这种情况下,AI往往会出现"创造性补充",这反过来会导致一些实时错误;
AI LLMs 本质上依赖于 "概率抽样",它涉及到在训练数据中识别统计模式和相关性,而不是实际的 "理解"。因此,概率选择的随机性、学习结果的不一致性和推理可能导致 AI 在处理高精度事实问题时出现错误;
如何解决这个问题?在康奈尔大学的ArXiv平台上发表了一篇文章,描述了几种模型的联合验证方法,以提高LLMs结果的可靠性。
简单的理解是首先允许主模型生成结果,然后结合多个验证模型进行“多数投票分析”,以减少模型中出现的“幻觉”。
在一系列下探中发现,这种方法可以将AI输出的准确性提高到95.6%。
因此,毫无疑问,需要一个分布式平台来验证,以管理和核实主模型与验证模型之间的合作过程。Mira Network 是这样一个中介网络,专门为 AI LLMs 的验证而创建,它在用户与基础 AI 模型之间建立了可靠的验证层。
由于这一网络的存在,验证级别可以实现集成服务,包括隐私保护、确保准确性、可扩展设计、标准化API接口及其他集成服务,同时在不同的细分应用场景中,AI的植入能力可以通过降低AI LLM的输出幻觉来扩展,这也是在通过加密验证的分布式网络实施AI LLM项目过程中的一种实践。
例如,Mira Network 分享了几个区块链在金融、教育和环境领域的案例,以证明:
在Gigabrain交易平台上集成Mira后,系统可以增加一个验证市场分析和预测准确性的层级,通过过滤不可靠的提议,从而提高AI交易信号的准确性,使AI LLMs在DeFi场景中的应用更加可靠。
Learnrite 使用 mira 来验证由人工智能生成的标准化测试题,使教育机构能够在不损害教育测试内容的准确性的情况下,以规模使用人工智能创建的内容,以支持严格的教育标准;
Kernel 区块链项目利用 Mira 的 LLM 共识机制,将其集成到 BNB 生态系统中,创建一个去中心化的 DVN 验证网络,为在区块链上执行 AI 计算提供一定程度的准确性和安全性。
MIRA3.69%
DEFI-1.29%
BNB0.99%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)