É claro para todos que a maior barreira para a implementação de grandes modelos de IA em setores verticais como finanças, saúde e direito é o problema da "ilusão" de resultados que não atendem aos requisitos de precisão em cenários de uso reais. Como resolver isso? Recentemente, @Mira_Network lançou uma rede de testes pública, oferecendo um conjunto de soluções, então vou explicar do que se trata:
Em primeiro lugar, as ferramentas de grandes modelos de IA têm casos de "ilusões" que todos podem sentir, as razões para isso são principalmente duas: Os dados para o treinamento do AI LLM não são suficientemente completos, embora o volume de dados já seja muito grande, ainda assim não é possível abranger algumas informações de nicho ou profissionais, nesse caso, a IA está sujeita a "complementação criativa", o que, por sua vez, leva a alguns erros em tempo real; Os LLMs de IA baseiam-se essencialmente em "amostragem probabilística", que consiste em identificar padrões estatísticos e correlações nos dados de treinamento, em vez de um verdadeiro "entendimento". Portanto, a aleatoriedade da escolha probabilística, a inconsistência dos resultados de aprendizado e o raciocínio podem levar a erros da IA ao lidar com questões factuais de alta precisão; Como resolver este problema? Foi publicado um artigo na plataforma ArXiv da Universidade de Cornell que descreve métodos de validação conjunta com vários modelos para aumentar a fiabilidade dos resultados dos LLMs. A compreensão simples consiste em permitir que o modelo principal gere resultados primeiro e, em seguida, combinar vários modelos de verificação para realizar uma "análise de maioria dos votos" com o objetivo de reduzir as "ilusões" que surgem no modelo. Em uma série de testes, foi descoberto que este método pode aumentar a precisão da saída da IA para 95,6%. Portanto, sem dúvida, é necessária uma plataforma distribuída para verificação, a fim de gerenciar e verificar o processo de colaboração entre o modelo principal e o modelo de verificação. A Mira Network é essa rede intermediária, especificamente criada para a verificação de AI LLMs, que constrói um nível de verificação confiável entre o usuário e os modelos de AI básicos. Graças à existência desta rede, os níveis de verificação podem ser implementados serviços integrados, incluindo proteção de privacidade, garantia de precisão, design expansível, interfaces de API padronizadas e outros serviços integrados, assim como a capacidade de integrar IA em vários cenários de aplicação subdivididos pode ser expandida através da redução da ilusão de saída do AI LLM, que também é uma prática no processo de implementação do projeto AI LLM pela rede de verificação distribuída Crypto. Por exemplo, a Mira Network compartilhou alguns casos na área de finanças, educação e ecologia do blockchain para confirmar: Uma vez que Mira é integrado na plataforma de negociação Gigabrain, o sistema pode adicionar outra camada de verificação da precisão da análise de mercado e previsões, filtrando ofertas não confiáveis, o que pode melhorar a precisão dos sinais de negociação de IA, tornando a aplicação de LLMs de IA em cenários DeFi mais confiável. Learnrite utiliza a mira para verificar questões de teste padronizadas geradas por inteligência artificial, permitindo que as instituições de ensino utilizem conteúdo criado por inteligência artificial em escala, sem comprometer a precisão do conteúdo dos testes educacionais para apoiar normas educacionais rigorosas; O projeto de blockchain Kernel utiliza o mecanismo de consenso LLM da Mira, integrando-o no ecossistema BNB, criando uma rede descentralizada de validação DVN, que garante um certo nível de precisão e segurança na execução de cálculos de IA na blockchain.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
É claro para todos que a maior barreira para a implementação de grandes modelos de IA em setores verticais como finanças, saúde e direito é o problema da "ilusão" de resultados que não atendem aos requisitos de precisão em cenários de uso reais. Como resolver isso? Recentemente, @Mira_Network lançou uma rede de testes pública, oferecendo um conjunto de soluções, então vou explicar do que se trata:
Em primeiro lugar, as ferramentas de grandes modelos de IA têm casos de "ilusões" que todos podem sentir, as razões para isso são principalmente duas:
Os dados para o treinamento do AI LLM não são suficientemente completos, embora o volume de dados já seja muito grande, ainda assim não é possível abranger algumas informações de nicho ou profissionais, nesse caso, a IA está sujeita a "complementação criativa", o que, por sua vez, leva a alguns erros em tempo real;
Os LLMs de IA baseiam-se essencialmente em "amostragem probabilística", que consiste em identificar padrões estatísticos e correlações nos dados de treinamento, em vez de um verdadeiro "entendimento". Portanto, a aleatoriedade da escolha probabilística, a inconsistência dos resultados de aprendizado e o raciocínio podem levar a erros da IA ao lidar com questões factuais de alta precisão;
Como resolver este problema? Foi publicado um artigo na plataforma ArXiv da Universidade de Cornell que descreve métodos de validação conjunta com vários modelos para aumentar a fiabilidade dos resultados dos LLMs.
A compreensão simples consiste em permitir que o modelo principal gere resultados primeiro e, em seguida, combinar vários modelos de verificação para realizar uma "análise de maioria dos votos" com o objetivo de reduzir as "ilusões" que surgem no modelo.
Em uma série de testes, foi descoberto que este método pode aumentar a precisão da saída da IA para 95,6%.
Portanto, sem dúvida, é necessária uma plataforma distribuída para verificação, a fim de gerenciar e verificar o processo de colaboração entre o modelo principal e o modelo de verificação. A Mira Network é essa rede intermediária, especificamente criada para a verificação de AI LLMs, que constrói um nível de verificação confiável entre o usuário e os modelos de AI básicos.
Graças à existência desta rede, os níveis de verificação podem ser implementados serviços integrados, incluindo proteção de privacidade, garantia de precisão, design expansível, interfaces de API padronizadas e outros serviços integrados, assim como a capacidade de integrar IA em vários cenários de aplicação subdivididos pode ser expandida através da redução da ilusão de saída do AI LLM, que também é uma prática no processo de implementação do projeto AI LLM pela rede de verificação distribuída Crypto.
Por exemplo, a Mira Network compartilhou alguns casos na área de finanças, educação e ecologia do blockchain para confirmar:
Uma vez que Mira é integrado na plataforma de negociação Gigabrain, o sistema pode adicionar outra camada de verificação da precisão da análise de mercado e previsões, filtrando ofertas não confiáveis, o que pode melhorar a precisão dos sinais de negociação de IA, tornando a aplicação de LLMs de IA em cenários DeFi mais confiável.
Learnrite utiliza a mira para verificar questões de teste padronizadas geradas por inteligência artificial, permitindo que as instituições de ensino utilizem conteúdo criado por inteligência artificial em escala, sem comprometer a precisão do conteúdo dos testes educacionais para apoiar normas educacionais rigorosas;
O projeto de blockchain Kernel utiliza o mecanismo de consenso LLM da Mira, integrando-o no ecossistema BNB, criando uma rede descentralizada de validação DVN, que garante um certo nível de precisão e segurança na execução de cálculos de IA na blockchain.