Всім зрозуміло, що найбільшим бар'єром впровадження великих моделей ШІ в такі вертикальні сфери застосування, як фінанси, охорона здоров'я, право, є проблема "ілюзії" результатів, які не відповідають вимогам точності в реальних сценаріях використання. Як це вирішити? Нещодавно @Mira_Network запустила публічну тестову мережу, запропонувавши набір рішень, тож я розповім, у чому справа:
По-перше, інструменти великих моделей ШІ мають випадки "ілюзій", які всі можуть відчути, причини цьому головним чином дві: Дані для навчання AI LLM недостатньо повні, хоча обсяг даних вже є дуже великим, все ж не можна охопити деяку нішеву або професійну інформацію, в такому випадку AI схильний до "творчого доповнення", що в свою чергу призводить до деяких помилок у реальному часі; AI LLMs по суті покладаються на "ймовірнісне вибірку", що полягає у виявленні статистичних патернів та кореляцій у навчальних даних, а не в справжньому "розумінні". Тому випадковість ймовірнісного вибору, непослідовність результатів навчання та міркування можуть призвести до помилок AI при обробці високоточних фактичних запитань; Як вирішити цю проблему? На платформі ArXiv університету Корнелла була опублікована стаття, що описує методи спільної валідації кількома моделями для підвищення надійності результатів LLMs. Просте розуміння полягає в тому, щоб спочатку дозволити основній моделі генерувати результати, а потім об'єднати кілька моделей перевірки для проведення "аналізу більшості голосів" з метою зменшення "ілюзій", які виникають у моделі. У серії тестів було виявлено, що цей метод може підвищити точність виходу AI до 95,6%. Отже, безумовно, потрібна розподілена платформа для перевірки, щоб управляти та перевіряти процес співпраці між основною моделлю та моделі перевірки. Mira Network є такою проміжною мережею, спеціально створеною для перевірки AI LLMs, яка будує надійний рівень перевірки між користувачем і базовими AI моделями. Завдяки існуванню цієї мережі рівня верифікації можуть бути реалізовані інтегровані послуги, включаючи захист конфіденційності, забезпечення точності, розширюваний дизайн, стандартизовані інтерфейси API та інші інтегровані послуги, а також можливість посадки ШІ в різних підрозділених прикладних сценаріях може бути розширена за рахунок зменшення вихідної ілюзії AI LLM, що також є практикою в процесі реалізації проекту AI LLM розподіленою мережею верифікації Crypto. Наприклад, Mira Network поділилася кількома кейсами у сфері фінансів, освіти та екології блокчейну, щоб підтвердити: Після інтеграції Mira на платформі торгівлі Gigabrain система може додати ще один рівень верифікації точності ринкового аналізу та прогнозів, фільтруючи ненадійні пропозиції, що може підвищити точність торгових сигналів AI, роблячи застосування AI LLMs у сценаріях DeFi більш надійним. Learnrite використовує mira для перевірки стандартизованих тестових запитань, згенерованих штучним інтелектом, дозволяючи навчальним закладам використовувати контент, створений штучним інтелектом, у масштабі без шкоди для точності змісту освітніх тестів для підтримки суворих освітніх стандартів; Проект блокчейн Kernel використовує консенсусний механізм LLM від Mira, інтегруючи його в екосистему BNB, створюючи децентралізовану мережу валідації DVN, що забезпечує певний рівень точності та безпеки виконання AI обчислень у блокчейні.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Всім зрозуміло, що найбільшим бар'єром впровадження великих моделей ШІ в такі вертикальні сфери застосування, як фінанси, охорона здоров'я, право, є проблема "ілюзії" результатів, які не відповідають вимогам точності в реальних сценаріях використання. Як це вирішити? Нещодавно @Mira_Network запустила публічну тестову мережу, запропонувавши набір рішень, тож я розповім, у чому справа:
По-перше, інструменти великих моделей ШІ мають випадки "ілюзій", які всі можуть відчути, причини цьому головним чином дві:
Дані для навчання AI LLM недостатньо повні, хоча обсяг даних вже є дуже великим, все ж не можна охопити деяку нішеву або професійну інформацію, в такому випадку AI схильний до "творчого доповнення", що в свою чергу призводить до деяких помилок у реальному часі;
AI LLMs по суті покладаються на "ймовірнісне вибірку", що полягає у виявленні статистичних патернів та кореляцій у навчальних даних, а не в справжньому "розумінні". Тому випадковість ймовірнісного вибору, непослідовність результатів навчання та міркування можуть призвести до помилок AI при обробці високоточних фактичних запитань;
Як вирішити цю проблему? На платформі ArXiv університету Корнелла була опублікована стаття, що описує методи спільної валідації кількома моделями для підвищення надійності результатів LLMs.
Просте розуміння полягає в тому, щоб спочатку дозволити основній моделі генерувати результати, а потім об'єднати кілька моделей перевірки для проведення "аналізу більшості голосів" з метою зменшення "ілюзій", які виникають у моделі.
У серії тестів було виявлено, що цей метод може підвищити точність виходу AI до 95,6%.
Отже, безумовно, потрібна розподілена платформа для перевірки, щоб управляти та перевіряти процес співпраці між основною моделлю та моделі перевірки. Mira Network є такою проміжною мережею, спеціально створеною для перевірки AI LLMs, яка будує надійний рівень перевірки між користувачем і базовими AI моделями.
Завдяки існуванню цієї мережі рівня верифікації можуть бути реалізовані інтегровані послуги, включаючи захист конфіденційності, забезпечення точності, розширюваний дизайн, стандартизовані інтерфейси API та інші інтегровані послуги, а також можливість посадки ШІ в різних підрозділених прикладних сценаріях може бути розширена за рахунок зменшення вихідної ілюзії AI LLM, що також є практикою в процесі реалізації проекту AI LLM розподіленою мережею верифікації Crypto.
Наприклад, Mira Network поділилася кількома кейсами у сфері фінансів, освіти та екології блокчейну, щоб підтвердити:
Після інтеграції Mira на платформі торгівлі Gigabrain система може додати ще один рівень верифікації точності ринкового аналізу та прогнозів, фільтруючи ненадійні пропозиції, що може підвищити точність торгових сигналів AI, роблячи застосування AI LLMs у сценаріях DeFi більш надійним.
Learnrite використовує mira для перевірки стандартизованих тестових запитань, згенерованих штучним інтелектом, дозволяючи навчальним закладам використовувати контент, створений штучним інтелектом, у масштабі без шкоди для точності змісту освітніх тестів для підтримки суворих освітніх стандартів;
Проект блокчейн Kernel використовує консенсусний механізм LLM від Mira, інтегруючи його в екосистему BNB, створюючи децентралізовану мережу валідації DVN, що забезпечує певний рівень точності та безпеки виконання AI обчислень у блокчейні.