Todos sabem que o maior obstáculo para a implementação de grandes modelos de IA em cenários de aplicação vertical como finanças, saúde e direito é um: o problema das “alucinações” nos resultados gerados pela IA, que não consegue corresponder à precisão necessária nos cenários de aplicação reais. Como resolver isso? Recentemente, @Mira_Network lançou uma rede de testes pública, apresentando uma solução. Deixe-me explicar o que aconteceu:
Primeiro, as ferramentas de grandes modelos de IA apresentam situações de “ilusão”, que todos podem perceber, principalmente por dois motivos:
Os dados de treino dos LLMs de IA não são suficientemente completos, embora a escala dos dados já seja muito grande, ainda assim não conseguem cobrir informações de alguns nichos ou áreas especializadas, e neste caso a IA tende a fazer “completação criativa”, o que leva a alguns erros em tempo real;
A essência do trabalho dos LLMs de IA baseia-se em “amostragem probabilística”, que identifica padrões estatísticos e correlações nos dados de treinamento, e não em uma verdadeira “compreensão”. Portanto, a aleatoriedade da amostragem probabilística, a inconsistência nos resultados de treinamento e inferência, entre outros fatores, podem levar a desvios da IA ao lidar com questões de fato de alta precisão.
Como resolver este problema? Foi publicado na plataforma ArXiv da Universidade de Cornell um artigo que verifica, através de múltiplos modelos, um método para aumentar a fiabilidade dos resultados dos LLMs.
Entender de forma simples significa que primeiro o modelo principal gera resultados, e depois vários modelos de validação integram-se para realizar uma “análise de votação majoritária” sobre a questão, reduzindo assim as “alucinações” geradas pelo modelo.
Em uma série de testes, foi descoberto que este método pode aumentar a precisão da saída da IA para 95,6%.
Uma vez que é assim, é claramente necessário uma plataforma de validação distribuída para gerir e validar o processo de interação colaborativa entre o modelo principal e o modelo de validação. A Mira Network é uma rede de middleware especialmente construída para a validação de AI LLMs, criando uma camada de validação fiável entre os utilizadores e os modelos de AI de base.
Com a existência desta rede de camada de validação, é possível implementar serviços integrados, incluindo proteção de privacidade, garantia de precisão, design escalável e interfaces API padronizadas. Isso pode ampliar a viabilidade da implementação da IA em vários cenários de aplicação, reduzindo as alucinações geradas pelos LLMs de IA, e é uma prática de como a rede de validação distribuída Crypto pode atuar no processo de realização de engenharia dos LLMs de IA.
Por exemplo, a Mira Network compartilhou alguns casos em finanças, educação e ecossistemas de blockchain que podem servir como prova:
Gigabrain, após integrar o Mira em uma plataforma de negociação, o sistema pode adicionar uma camada de verificação à precisão da análise de mercado e previsões, filtrando sugestões pouco confiáveis, o que pode aumentar a precisão dos sinais de negociação de IA, tornando a aplicação de LLMs de IA em cenários DeFai mais confiável.
Learnrite utiliza mira para verificar questões padronizadas geradas por IA, permitindo que instituições educacionais utilizem em grande escala conteúdo gerado por IA, sem comprometer a precisão do conteúdo dos testes educacionais, a fim de manter padrões educacionais rigorosos;
O projeto do kernel blockchain aproveita o mecanismo de consenso LLM da Mira para integrá-lo ao ecossistema BNB e cria uma rede de verificação descentralizada DVN, que garante a precisão e a segurança dos cálculos de IA realizados no blockchain até certo ponto.
Acima.
Na verdade, a Mira Network oferece serviços de rede de consenso de middleware, que não é de forma alguma o único caminho para aumentar as capacidades de aplicativos de IA. Na realidade, existem caminhos alternativos, como o aumento através de treinamento no lado dos dados, o aumento através da interação de grandes modelos multimodais, e o aumento da computação privada através de potenciais tecnologias criptográficas como ZKP, FHE, TEE, entre outros. Contudo, em comparação, a solução da Mira se destaca pela rapidez na implementação prática e pelos resultados imediatos.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A Mira Network consegue resolver o problema da "ilusão" dos grandes modelos de IA?
Escrito por: Haotian
Todos sabem que o maior obstáculo para a implementação de grandes modelos de IA em cenários de aplicação vertical como finanças, saúde e direito é um: o problema das “alucinações” nos resultados gerados pela IA, que não consegue corresponder à precisão necessária nos cenários de aplicação reais. Como resolver isso? Recentemente, @Mira_Network lançou uma rede de testes pública, apresentando uma solução. Deixe-me explicar o que aconteceu:
Primeiro, as ferramentas de grandes modelos de IA apresentam situações de “ilusão”, que todos podem perceber, principalmente por dois motivos:
Os dados de treino dos LLMs de IA não são suficientemente completos, embora a escala dos dados já seja muito grande, ainda assim não conseguem cobrir informações de alguns nichos ou áreas especializadas, e neste caso a IA tende a fazer “completação criativa”, o que leva a alguns erros em tempo real;
A essência do trabalho dos LLMs de IA baseia-se em “amostragem probabilística”, que identifica padrões estatísticos e correlações nos dados de treinamento, e não em uma verdadeira “compreensão”. Portanto, a aleatoriedade da amostragem probabilística, a inconsistência nos resultados de treinamento e inferência, entre outros fatores, podem levar a desvios da IA ao lidar com questões de fato de alta precisão.
Como resolver este problema? Foi publicado na plataforma ArXiv da Universidade de Cornell um artigo que verifica, através de múltiplos modelos, um método para aumentar a fiabilidade dos resultados dos LLMs.
Entender de forma simples significa que primeiro o modelo principal gera resultados, e depois vários modelos de validação integram-se para realizar uma “análise de votação majoritária” sobre a questão, reduzindo assim as “alucinações” geradas pelo modelo.
Em uma série de testes, foi descoberto que este método pode aumentar a precisão da saída da IA para 95,6%.
Uma vez que é assim, é claramente necessário uma plataforma de validação distribuída para gerir e validar o processo de interação colaborativa entre o modelo principal e o modelo de validação. A Mira Network é uma rede de middleware especialmente construída para a validação de AI LLMs, criando uma camada de validação fiável entre os utilizadores e os modelos de AI de base.
Com a existência desta rede de camada de validação, é possível implementar serviços integrados, incluindo proteção de privacidade, garantia de precisão, design escalável e interfaces API padronizadas. Isso pode ampliar a viabilidade da implementação da IA em vários cenários de aplicação, reduzindo as alucinações geradas pelos LLMs de IA, e é uma prática de como a rede de validação distribuída Crypto pode atuar no processo de realização de engenharia dos LLMs de IA.
Por exemplo, a Mira Network compartilhou alguns casos em finanças, educação e ecossistemas de blockchain que podem servir como prova:
Gigabrain, após integrar o Mira em uma plataforma de negociação, o sistema pode adicionar uma camada de verificação à precisão da análise de mercado e previsões, filtrando sugestões pouco confiáveis, o que pode aumentar a precisão dos sinais de negociação de IA, tornando a aplicação de LLMs de IA em cenários DeFai mais confiável.
Learnrite utiliza mira para verificar questões padronizadas geradas por IA, permitindo que instituições educacionais utilizem em grande escala conteúdo gerado por IA, sem comprometer a precisão do conteúdo dos testes educacionais, a fim de manter padrões educacionais rigorosos;
O projeto do kernel blockchain aproveita o mecanismo de consenso LLM da Mira para integrá-lo ao ecossistema BNB e cria uma rede de verificação descentralizada DVN, que garante a precisão e a segurança dos cálculos de IA realizados no blockchain até certo ponto.
Acima.
Na verdade, a Mira Network oferece serviços de rede de consenso de middleware, que não é de forma alguma o único caminho para aumentar as capacidades de aplicativos de IA. Na realidade, existem caminhos alternativos, como o aumento através de treinamento no lado dos dados, o aumento através da interação de grandes modelos multimodais, e o aumento da computação privada através de potenciais tecnologias criptográficas como ZKP, FHE, TEE, entre outros. Contudo, em comparação, a solução da Mira se destaca pela rapidez na implementação prática e pelos resultados imediatos.