GateUser-9c809642
大家都知道,在金融、医疗、法律等垂直应用领域,采用大型AI模型的最大障碍是"结果的幻觉"问题,这些结果在实际应用场景中无法满足准确性的要求。如何解决这个问题?最近,@Mira_Network 启动了公共测试网络,提供了一套解决方案,所以我来告诉你,事情是这样的:
首先,大型AI模型的工具有 "幻觉 "的情况,这些情况所有人都可能感受到,主要原因有两个:
AI LLM的训练数据不足够全面,尽管数据量已经非常庞大,但仍然无法涵盖一些小众或专业信息,在这种情况下,AI往往会出现"创造性补充",这反过来会导致一些实时错误;
AI LLMs 本质上依赖于 "概率抽样",它涉及到在训练数据中识别统计模式和相关性,而不是实际的 "理解"。因此,概率选择的随机性、学习结果的不一致性和推理可能导致 AI 在处理高精度事实问题时出现错误;
如何解决这个问题?在康奈尔大学的ArXiv平台上发表了一篇文章,描述了几种模型的联合验证方法,以提高LLMs结果的可靠性。
简单的理解是首先允许主模型生成结果,然后结合多个验证模型进行“多数投票分析”,以减少模型中出现的“幻觉”。
在一系列下探中发现,这种方法可以将AI输出的准确性提高到95.6%。
因此,毫无疑问,需要一个分布式平台来验证,以管理和核实主模型与验证模型之间的合作过程。Mira Network 是这样一个中介网络,专门为 AI LLMs 的验证而创建
查看原文首先,大型AI模型的工具有 "幻觉 "的情况,这些情况所有人都可能感受到,主要原因有两个:
AI LLM的训练数据不足够全面,尽管数据量已经非常庞大,但仍然无法涵盖一些小众或专业信息,在这种情况下,AI往往会出现"创造性补充",这反过来会导致一些实时错误;
AI LLMs 本质上依赖于 "概率抽样",它涉及到在训练数据中识别统计模式和相关性,而不是实际的 "理解"。因此,概率选择的随机性、学习结果的不一致性和推理可能导致 AI 在处理高精度事实问题时出现错误;
如何解决这个问题?在康奈尔大学的ArXiv平台上发表了一篇文章,描述了几种模型的联合验证方法,以提高LLMs结果的可靠性。
简单的理解是首先允许主模型生成结果,然后结合多个验证模型进行“多数投票分析”,以减少模型中出现的“幻觉”。
在一系列下探中发现,这种方法可以将AI输出的准确性提高到95.6%。
因此,毫无疑问,需要一个分布式平台来验证,以管理和核实主模型与验证模型之间的合作过程。Mira Network 是这样一个中介网络,专门为 AI LLMs 的验证而创建