La principale problématique de nombreux projets d'IA sur la chaîne n'est pas un modèle insuffisant, mais le fait que les contrats intelligents ne peuvent pas réellement juger si le résultat du raisonnement est fiable. Une fois que le résultat devient non vérifiable, l'IA ne peut que rester au niveau d'outil d'assistance.
@inference_labs face à cette lacune, construit une infrastructure de raisonnement vérifiable, décomposant le processus d'exécution du raisonnement, de génération et de validation des résultats, et l'intégrant dans un cadre auditif.
De cette façon, ce n'est plus la sortie de l'IA, basée sur une confiance unique, qui est appelée par le contrat, mais un résultat calculé vérifié et contraint, permettant à l'IA de participer réellement à la logique sur la chaîne et à la prise de décision automatique.
@KaitoAI #Yap @easydotfunX
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
La principale problématique de nombreux projets d'IA sur la chaîne n'est pas un modèle insuffisant, mais le fait que les contrats intelligents ne peuvent pas réellement juger si le résultat du raisonnement est fiable. Une fois que le résultat devient non vérifiable, l'IA ne peut que rester au niveau d'outil d'assistance.
@inference_labs face à cette lacune, construit une infrastructure de raisonnement vérifiable, décomposant le processus d'exécution du raisonnement, de génération et de validation des résultats, et l'intégrant dans un cadre auditif.
De cette façon, ce n'est plus la sortie de l'IA, basée sur une confiance unique, qui est appelée par le contrat, mais un résultat calculé vérifié et contraint, permettant à l'IA de participer réellement à la logique sur la chaîne et à la prise de décision automatique.
@KaitoAI #Yap @easydotfunX