Всем понятно, что самым большим барьером внедрения крупных моделей ИИ в такие вертикальные сферы применения, как финансы, здравоохранение, право, является проблема "иллюзии" результатов, которые не соответствуют требованиям точности в реальных сценариях использования. Как это решить? Недавно @Mira_Network запустила публичную тестовую сеть, предложив набор решений, так что я расскажу, в чем дело:


Во-первых, инструменты больших моделей ИИ имеют случаи "иллюзий", которые все могут ощутить, причины этому главным образом две:
Данные для обучения AI LLM недостаточно полные, хотя объем данных уже очень большой, все же нельзя охватить какую-то нишевую или профессиональную информацию, в таком случае AI склонен к "творческому дополнению", что в свою очередь приводит к некоторым ошибкам в реальном времени;
AI LLMs по сути полагаются на "вероятностный выбор", который заключается в выявлении статистических паттернов и корреляций в обучающих данных, а не в настоящем "понимании". Поэтому случайность вероятностного выбора, несогласованность результатов обучения и рассуждений могут привести к ошибкам AI при обработке высокоточных фактических вопросов;
Как решить эту проблему? На платформе ArXiv Корнельского университета была опубликована статья, описывающая методы совместной валидации несколькими моделями для повышения надежности результатов LLMs.
Простое понимание заключается в том, чтобы сначала позволить основной модели генерировать результаты, а затем объединить несколько моделей проверки для проведения "анализа большинства голосов" с целью уменьшения "иллюзий", которые возникают в модели.
В серии тестов было выявлено, что этот метод может повысить точность выхода AI до 95,6%.
Итак, безусловно, нужна распределенная платформа для верификации, чтобы управлять и проверять процесс сотрудничества между основной моделью и моделью верификации. Mira Network является такой промежуточной сетью, специально созданной для верификации AI LLMs, которая строит надежный уровень верификации между пользователем и базовыми AI моделями.
Благодаря существованию этой сети уровня верификации могут быть реализованы интегрированные услуги, включая защиту конфиденциальности, обеспечение точности, расширяемый дизайн, стандартизированные интерфейсы API и другие интегрированные услуги, а также возможность посадки ШИ в различных подразделенных прикладных сценариях может быть расширена за счет уменьшения исходной иллюзии AI LLM, что также является практикой в процессе реализации проекта AI LLM распределенной сетью верификации Crypto.
Например, Mira Network поделилась несколькими кейсами в сфере финансов, образования и экологии блокчейна, чтобы подтвердить:
После интеграции Mira на платформе торговли Gigabrain система может добавить еще один уровень верификации точности рыночного анализа и прогнозов, фильтруя ненадежные предложения, что может повысить точность торговых сигналов AI, делая применение AI LLMs в сценариях DeFi более надежным.
Learnrite использует mira для проверки стандартизированных тестовых вопросов, сгенерированных искусственным интеллектом, позволяя учебным заведениям использовать контент, созданный искусственным интеллектом, в масштабе без ущерба для точности содержания образовательных тестов для поддержки строгих образовательных стандартов;
Проект блокчейн Kernel использует консенсусный механизм LLM от Mira, интегрируя его в экосистему BNB, создавая децентрализованную сеть валидации DVN, которая обеспечивает определенный уровень точности и безопасности выполнения AI вычислений в блокчейне.
MIRA3,69%
DEFI-1,29%
BNB0,99%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить