Beaucoup de gens utilisent actuellement l'IA, ce qui revient à supposer une chose : une fois le résultat obtenu, on considère qu'il est correct.
Mais si l'on veut vraiment l'intégrer dans un système officiel, cela devient assez dangereux. Vous ne pouvez pas confirmer qu'il suit le processus que vous avez prévu, sans parler de la traçabilité après coup.
#Inference Labs a trouvé un aspect intéressant dans ce domaine. Il ne s'agit pas de créer une IA plus intelligente, mais de résoudre un problème plus fondamental : pouvez-vous prouver que cette déduction a réellement été effectuée ? Ils transforment la déduction elle-même en une chose vérifiable. Après exécution, il est possible de vérifier, de reproduire et de prouver, tout en conservant la confidentialité du modèle et des entrées.
Ce point est en réalité très crucial. Ce n'est pas une question de croire en vous, mais que le système sait : cette étape n'a pas été modifiée. Ainsi, ce qui change, ce n'est pas une application spécifique, mais la manière dont l'IA produit ses résultats. Avant, on utilisait d'abord l'IA, puis on ajoutait une couche de contrôle externe. Maintenant, la déduction elle-même doit être solide. Et c'est précisément pour cette raison que cette approche est plus adaptée aux scénarios sérieux. Finance, médical, systèmes institutionnels, voire protocoles sur la blockchain, ne peuvent pas accepter que tout soit simplement probablement correct.
@inference_labs fait ce qu'il faut : en gros, il ramène l'IA d'une boîte noire à un calcul vérifiable. Cette étape est très fondamentale.
Et pour une IA qui doit être déployée à long terme, il faudra tôt ou tard franchir cette étape.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Beaucoup de gens utilisent actuellement l'IA, ce qui revient à supposer une chose : une fois le résultat obtenu, on considère qu'il est correct.
Mais si l'on veut vraiment l'intégrer dans un système officiel, cela devient assez dangereux. Vous ne pouvez pas confirmer qu'il suit le processus que vous avez prévu, sans parler de la traçabilité après coup.
#Inference Labs a trouvé un aspect intéressant dans ce domaine. Il ne s'agit pas de créer une IA plus intelligente, mais de résoudre un problème plus fondamental : pouvez-vous prouver que cette déduction a réellement été effectuée ? Ils transforment la déduction elle-même en une chose vérifiable. Après exécution, il est possible de vérifier, de reproduire et de prouver, tout en conservant la confidentialité du modèle et des entrées.
Ce point est en réalité très crucial. Ce n'est pas une question de croire en vous, mais que le système sait : cette étape n'a pas été modifiée. Ainsi, ce qui change, ce n'est pas une application spécifique, mais la manière dont l'IA produit ses résultats. Avant, on utilisait d'abord l'IA, puis on ajoutait une couche de contrôle externe. Maintenant, la déduction elle-même doit être solide. Et c'est précisément pour cette raison que cette approche est plus adaptée aux scénarios sérieux. Finance, médical, systèmes institutionnels, voire protocoles sur la blockchain, ne peuvent pas accepter que tout soit simplement probablement correct.
@inference_labs fait ce qu'il faut : en gros, il ramène l'IA d'une boîte noire à un calcul vérifiable. Cette étape est très fondamentale.
Et pour une IA qui doit être déployée à long terme, il faudra tôt ou tard franchir cette étape.
@inference_labs #Yap @KaitoAI #KaitoYap #Inference