Tout le monde sait que le plus grand obstacle à l’application des grands modèles d’IA dans des scénarios d’application verticale tels que la finance, la santé et le droit est un seul : le problème des « hallucinations » dans les résultats générés par l’IA, qui ne correspondent pas aux scénarios d’application nécessitant de la précision. Comment résoudre cela ? Récemment, @Mira_Network a lancé un réseau de test public, proposant une solution, laissez-moi vous expliquer ce qui se passe :
Tout d’abord, les outils de grands modèles d’IA présentent des cas de « hallucination », ce dont tout le monde peut avoir conscience, pour deux raisons principales :
Les données d’entraînement des LLM d’IA sont incomplètes, et bien que les données existantes soient très volumineuses, elles ne peuvent toujours pas couvrir certaines informations de niche ou professionnelles, de sorte que l’IA a tendance à faire de la « réalisation créative » et à conduire ensuite à des erreurs en temps réel ;
Le travail des LLM de l’IA repose essentiellement sur « l’échantillonnage probabiliste », qui consiste à identifier des modèles statistiques et des corrélations dans les données d’apprentissage, plutôt que sur une véritable « compréhension », de sorte que le caractère aléatoire de l’échantillonnage probabiliste et l’incohérence des résultats d’apprentissage et d’inférence entraîneront un biais dans le traitement par l’IA de problèmes factuels de haute précision ;
Comment résoudre ce problème ? Une étude a été publiée sur la plateforme ArXiv de l’Université Cornell, présentant une méthode pour améliorer la fiabilité des résultats des LLMs en utilisant plusieurs modèles.
Une compréhension simple est que le modèle principal génère d’abord un résultat, puis plusieurs modèles de validation sont intégrés pour effectuer une « analyse de vote majoritaire » sur ce problème, ce qui peut réduire les « hallucinations » produites par le modèle.
Une série de tests a révélé que cette méthode peut augmenter la précision des sorties de l’IA à 95,6 %.
Dans ce cas, il est certainement nécessaire d’avoir une plateforme de validation distribuée pour gérer et vérifier le processus d’interaction collaborative entre le modèle principal et le modèle de validation. Mira Network est un réseau intermédiaire spécialement conçu pour la validation des LLMs d’IA, qui établit une couche de validation fiable entre l’utilisateur et le modèle d’IA de base.
Avec l’existence de ce réseau de couche de validation, il est possible de réaliser des services intégrés tels que la protection de la vie privée, la garantie de précision, une conception extensible et des interfaces API standardisées. Cela permet d’élargir la possibilité de déploiement de l’IA dans divers scénarios d’application en réduisant les hallucinations des sorties des LLMs d’IA, et constitue une pratique sur la manière dont le réseau de validation distribué Crypto peut intervenir dans le processus de réalisation des LLMs d’IA.
Par exemple, Mira Network a partagé plusieurs cas dans les domaines de la finance, de l’éducation et de l’écosystème blockchain qui peuvent servir de preuve :
Gigabrain, après avoir intégré Mira sur une plateforme de trading, permet au système d’ajouter une vérification supplémentaire de l’exactitude des analyses et prévisions de marché, filtrant les conseils peu fiables, ce qui peut améliorer la précision des signaux de trading AI et rendre l’application des LLMs AI dans des scénarios DeFi plus fiable.
Learnrite utilise mira pour vérifier les questions d’examen standardisées générées par l’IA, permettant aux établissements éducatifs d’utiliser à grande échelle du contenu généré par l’IA, tout en préservant l’exactitude du contenu des tests éducatifs afin de maintenir des normes éducatives strictes;
Le projet blockchain Kernel utilise le mécanisme de consensus LLM de Mira pour l’intégrer dans l’écosystème BNB, créant ainsi un réseau de validation décentralisé (DVN), ce qui garantit dans une certaine mesure l’exactitude et la sécurité des calculs AI exécutés sur la blockchain.
C’est tout.
En réalité, Mira Network offre un service de réseau de consensus middleware, ce n’est certainement pas la seule voie pour améliorer les capacités des applications AI. En fait, le renforcement par l’entraînement des données, le renforcement par l’interaction de grands modèles multimodaux, ainsi que le renforcement par des techniques de calcul privé cryptographiques potentielles comme ZKP, FHE, TEE, etc., sont tous des voies optionnelles. Cependant, en comparaison, la solution de Mira se distingue par sa mise en pratique rapide et ses résultats immédiats.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le réseau Mira peut-il résoudre le problème des « hallucinations » des grands modèles d'IA ?
Rédigé par : Haotian
Tout le monde sait que le plus grand obstacle à l’application des grands modèles d’IA dans des scénarios d’application verticale tels que la finance, la santé et le droit est un seul : le problème des « hallucinations » dans les résultats générés par l’IA, qui ne correspondent pas aux scénarios d’application nécessitant de la précision. Comment résoudre cela ? Récemment, @Mira_Network a lancé un réseau de test public, proposant une solution, laissez-moi vous expliquer ce qui se passe :
Tout d’abord, les outils de grands modèles d’IA présentent des cas de « hallucination », ce dont tout le monde peut avoir conscience, pour deux raisons principales :
Les données d’entraînement des LLM d’IA sont incomplètes, et bien que les données existantes soient très volumineuses, elles ne peuvent toujours pas couvrir certaines informations de niche ou professionnelles, de sorte que l’IA a tendance à faire de la « réalisation créative » et à conduire ensuite à des erreurs en temps réel ;
Le travail des LLM de l’IA repose essentiellement sur « l’échantillonnage probabiliste », qui consiste à identifier des modèles statistiques et des corrélations dans les données d’apprentissage, plutôt que sur une véritable « compréhension », de sorte que le caractère aléatoire de l’échantillonnage probabiliste et l’incohérence des résultats d’apprentissage et d’inférence entraîneront un biais dans le traitement par l’IA de problèmes factuels de haute précision ;
Comment résoudre ce problème ? Une étude a été publiée sur la plateforme ArXiv de l’Université Cornell, présentant une méthode pour améliorer la fiabilité des résultats des LLMs en utilisant plusieurs modèles.
Une compréhension simple est que le modèle principal génère d’abord un résultat, puis plusieurs modèles de validation sont intégrés pour effectuer une « analyse de vote majoritaire » sur ce problème, ce qui peut réduire les « hallucinations » produites par le modèle.
Une série de tests a révélé que cette méthode peut augmenter la précision des sorties de l’IA à 95,6 %.
Dans ce cas, il est certainement nécessaire d’avoir une plateforme de validation distribuée pour gérer et vérifier le processus d’interaction collaborative entre le modèle principal et le modèle de validation. Mira Network est un réseau intermédiaire spécialement conçu pour la validation des LLMs d’IA, qui établit une couche de validation fiable entre l’utilisateur et le modèle d’IA de base.
Avec l’existence de ce réseau de couche de validation, il est possible de réaliser des services intégrés tels que la protection de la vie privée, la garantie de précision, une conception extensible et des interfaces API standardisées. Cela permet d’élargir la possibilité de déploiement de l’IA dans divers scénarios d’application en réduisant les hallucinations des sorties des LLMs d’IA, et constitue une pratique sur la manière dont le réseau de validation distribué Crypto peut intervenir dans le processus de réalisation des LLMs d’IA.
Par exemple, Mira Network a partagé plusieurs cas dans les domaines de la finance, de l’éducation et de l’écosystème blockchain qui peuvent servir de preuve :
Gigabrain, après avoir intégré Mira sur une plateforme de trading, permet au système d’ajouter une vérification supplémentaire de l’exactitude des analyses et prévisions de marché, filtrant les conseils peu fiables, ce qui peut améliorer la précision des signaux de trading AI et rendre l’application des LLMs AI dans des scénarios DeFi plus fiable.
Learnrite utilise mira pour vérifier les questions d’examen standardisées générées par l’IA, permettant aux établissements éducatifs d’utiliser à grande échelle du contenu généré par l’IA, tout en préservant l’exactitude du contenu des tests éducatifs afin de maintenir des normes éducatives strictes;
Le projet blockchain Kernel utilise le mécanisme de consensus LLM de Mira pour l’intégrer dans l’écosystème BNB, créant ainsi un réseau de validation décentralisé (DVN), ce qui garantit dans une certaine mesure l’exactitude et la sécurité des calculs AI exécutés sur la blockchain.
C’est tout.
En réalité, Mira Network offre un service de réseau de consensus middleware, ce n’est certainement pas la seule voie pour améliorer les capacités des applications AI. En fait, le renforcement par l’entraînement des données, le renforcement par l’interaction de grands modèles multimodaux, ainsi que le renforcement par des techniques de calcul privé cryptographiques potentielles comme ZKP, FHE, TEE, etc., sont tous des voies optionnelles. Cependant, en comparaison, la solution de Mira se distingue par sa mise en pratique rapide et ses résultats immédiats.