ROMA et OML sont les technologies les plus avancées de @SentientAGI qui permettent à Sentient Chat d'atteindre — et même de dépasser — le niveau des IA d'entreprise fermées comme ChatGPT.
COMMENT ? Pour comprendre cela, nous devons examiner les principaux problèmes de l'IA open source et comment ROMA et OML les résolvent.
Problèmes Comme nous le savons, l'IA open-source fait face à de grands défis tels que la monétisation, le vol de modèles, l'utilisation piratée et la faible efficacité/fonctionnalité (1 modèle = 1 fonction).
Solution Divers agents spécialisés, modèles, ensembles de données et outils se connectent à l'écosystème GRID, accessible via Sentient Chat.
ROMA Lorsque vous utilisez Sentient Chat, votre demande peut être traitée non pas par un seul modèle d'IA, mais par plusieurs - parfois même des dizaines - de modèles qui peuvent fonctionner de manière séquentielle ou, lorsque cela est possible, en parallèle.
Cela résout le problème de faible fonctionnalité et d'efficacité.
OM → Piraterie OML résout le problème de l'utilisation piratée des modèles d'IA ouverts grâce à un contrôle cryptographique. Chaque modèle comprend des mécanismes d'autorisation intégrés : avant l'exécution, le système vérifie une signature numérique confirmant que l'utilisateur a la permission d'utiliser le modèle. Sans cette autorisation, le modèle ne répondra tout simplement pas.
→ Vol Le vol d'un autre modèle d'IA devient impossible car OML intègre plusieurs empreintes digitales ( paires clé-réponse ) directement dans chaque modèle d'IA. Cela permet à quiconque de vérifier la propriété grâce à un test spécial de défi-réponse. Jusqu'à présent, Sentient a réussi à intégrer près de 25 000 empreintes digitales dans un LLM sans aucune perte de performance — suffisamment pour garantir que le modèle survive à l'ajustement fin, à la compression et à la fusion, rendant le vol pratiquement impossible.
→ Monétisation Les enregistrements OML consignent pratiquement toutes les interactions se produisant dans Sentient Chat — quel utilisateur, quels modèles ont été utilisés, quand ils ont été utilisés et combien de demandes ont été faites. Toutes ces données sont stockées hors chaîne, tandis que les enregistrements d'utilisation clés sont écrits dans un registre en chaîne. Cela garantit que chaque contributeur reçoit une récompense équitable, et que quiconque peut vérifier cette équité en consultant le registre public sur la blockchain.
D'autres facteurs contribuent également à la monétisation des agents IA — vous pouvez en lire davantage ici
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
ROMA + OM
ROMA et OML sont les technologies les plus avancées de @SentientAGI qui permettent à Sentient Chat d'atteindre — et même de dépasser — le niveau des IA d'entreprise fermées comme ChatGPT.
COMMENT ?
Pour comprendre cela, nous devons examiner les principaux problèmes de l'IA open source et comment ROMA et OML les résolvent.
Problèmes
Comme nous le savons, l'IA open-source fait face à de grands défis tels que la monétisation, le vol de modèles, l'utilisation piratée et la faible efficacité/fonctionnalité (1 modèle = 1 fonction).
Solution
Divers agents spécialisés, modèles, ensembles de données et outils se connectent à l'écosystème GRID, accessible via Sentient Chat.
ROMA
Lorsque vous utilisez Sentient Chat, votre demande peut être traitée non pas par un seul modèle d'IA, mais par plusieurs - parfois même des dizaines - de modèles qui peuvent fonctionner de manière séquentielle ou, lorsque cela est possible, en parallèle.
Cela résout le problème de faible fonctionnalité et d'efficacité.
OM
→ Piraterie
OML résout le problème de l'utilisation piratée des modèles d'IA ouverts grâce à un contrôle cryptographique. Chaque modèle comprend des mécanismes d'autorisation intégrés : avant l'exécution, le système vérifie une signature numérique confirmant que l'utilisateur a la permission d'utiliser le modèle. Sans cette autorisation, le modèle ne répondra tout simplement pas.
→ Vol
Le vol d'un autre modèle d'IA devient impossible car OML intègre plusieurs empreintes digitales ( paires clé-réponse ) directement dans chaque modèle d'IA. Cela permet à quiconque de vérifier la propriété grâce à un test spécial de défi-réponse. Jusqu'à présent, Sentient a réussi à intégrer près de 25 000 empreintes digitales dans un LLM sans aucune perte de performance — suffisamment pour garantir que le modèle survive à l'ajustement fin, à la compression et à la fusion, rendant le vol pratiquement impossible.
→ Monétisation
Les enregistrements OML consignent pratiquement toutes les interactions se produisant dans Sentient Chat — quel utilisateur, quels modèles ont été utilisés, quand ils ont été utilisés et combien de demandes ont été faites. Toutes ces données sont stockées hors chaîne, tandis que les enregistrements d'utilisation clés sont écrits dans un registre en chaîne.
Cela garantit que chaque contributeur reçoit une récompense équitable, et que quiconque peut vérifier cette équité en consultant le registre public sur la blockchain.
D'autres facteurs contribuent également à la monétisation des agents IA — vous pouvez en lire davantage ici