Tất cả mọi người đều hiểu rằng rào cản lớn nhất trong việc triển khai các mô hình AI lớn vào các lĩnh vực ứng dụng như tài chính, y tế, pháp luật là vấn đề "ảo tưởng" về kết quả không đáp ứng yêu cầu chính xác trong các kịch bản sử dụng thực tế. Làm thế nào để giải quyết điều này? Gần đây, @Mira_Network đã ra mắt mạng thử nghiệm công khai, cung cấp một bộ giải pháp, vì vậy tôi sẽ giải thích vấn đề này:
Trước hết, các công cụ của các mô hình AI lớn có những trường hợp "ảo tưởng" mà mọi người đều có thể cảm nhận được, nguyên nhân chính là do hai lý do: Dữ liệu để đào tạo AI LLM không đủ đầy đủ, mặc dù khối lượng dữ liệu đã rất lớn, nhưng vẫn không thể bao quát một số thông tin ngách hoặc chuyên nghiệp, trong trường hợp đó AI có xu hướng "bổ sung sáng tạo", điều này dẫn đến một số lỗi trong thời gian thực; AI LLMs về bản chất dựa vào "lấy mẫu xác suất", điều này bao gồm việc phát hiện các mẫu thống kê và mối tương quan trong dữ liệu đào tạo, thay vì "hiểu biết" thực sự. Do đó, tính ngẫu nhiên của việc lựa chọn xác suất, sự không nhất quán trong kết quả đào tạo và lý luận có thể dẫn đến lỗi AI khi xử lý các câu hỏi thực tế có độ chính xác cao; Làm thế nào để giải quyết vấn đề này? Trên nền tảng ArXiv của Đại học Cornell, một bài báo đã được công bố mô tả các phương pháp xác thực hợp tác bằng nhiều mô hình để nâng cao độ tin cậy của các kết quả LLMs. Hiểu đơn giản là trước tiên cho phép mô hình chính tạo ra kết quả, sau đó kết hợp một vài mô hình kiểm tra để thực hiện "phân tích đa số phiếu" nhằm giảm thiểu các "ảo tưởng" phát sinh trong mô hình. Trong chuỗi test, đã phát hiện ra rằng phương pháp này có thể nâng cao độ chính xác của đầu ra AI lên 95,6%. Vì vậy, chắc chắn cần một nền tảng phân tán để kiểm tra, nhằm quản lý và kiểm tra quy trình hợp tác giữa mô hình chính và mô hình kiểm tra. Mira Network là một mạng trung gian được tạo ra đặc biệt để kiểm tra các AI LLMs, xây dựng một cấp độ kiểm tra đáng tin cậy giữa người dùng và các mô hình AI cơ bản. Nhờ vào sự tồn tại của mạng này, các cấp độ xác thực có thể thực hiện các dịch vụ tích hợp, bao gồm bảo vệ quyền riêng tư, đảm bảo độ chính xác, thiết kế mở rộng, các giao diện API tiêu chuẩn hóa và các dịch vụ tích hợp khác, cũng như khả năng tích hợp AI vào các kịch bản ứng dụng phân chia khác nhau có thể được mở rộng thông qua việc giảm thiểu ảo giác đầu ra của AI LLM, điều này cũng là một thực tiễn trong quá trình triển khai dự án AI LLM bởi mạng lưới xác thực phân tán Crypto. Chẳng hạn, Mira Network đã chia sẻ một vài trường hợp trong lĩnh vực tài chính, giáo dục và môi trường của blockchain để xác nhận: Sau khi tích hợp Mira trên nền tảng giao dịch Gigabrain, hệ thống có thể thêm một cấp độ xác minh độ chính xác của phân tích thị trường và dự đoán, lọc ra các đề xuất không đáng tin cậy, điều này có thể nâng cao độ chính xác của các tín hiệu giao dịch AI, làm cho việc ứng dụng AI LLMs trong các kịch bản DeFi trở nên đáng tin cậy hơn. Learnrite sử dụng mira để kiểm tra các câu hỏi kiểm tra tiêu chuẩn hóa được tạo ra bởi trí tuệ nhân tạo, cho phép các cơ sở giáo dục sử dụng nội dung được tạo ra bởi trí tuệ nhân tạo ở quy mô mà không làm tổn hại đến độ chính xác của nội dung các bài kiểm tra giáo dục nhằm duy trì các tiêu chuẩn giáo dục nghiêm ngặt; Dự án blockchain Kernel sử dụng cơ chế đồng thuận LLM từ Mira, tích hợp nó vào hệ sinh thái BNB, tạo ra một mạng lưới xác thực phân cấp DVN, đảm bảo một mức độ chính xác và an ninh nhất định trong việc thực hiện các tính toán AI trên blockchain.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Tất cả mọi người đều hiểu rằng rào cản lớn nhất trong việc triển khai các mô hình AI lớn vào các lĩnh vực ứng dụng như tài chính, y tế, pháp luật là vấn đề "ảo tưởng" về kết quả không đáp ứng yêu cầu chính xác trong các kịch bản sử dụng thực tế. Làm thế nào để giải quyết điều này? Gần đây, @Mira_Network đã ra mắt mạng thử nghiệm công khai, cung cấp một bộ giải pháp, vì vậy tôi sẽ giải thích vấn đề này:
Trước hết, các công cụ của các mô hình AI lớn có những trường hợp "ảo tưởng" mà mọi người đều có thể cảm nhận được, nguyên nhân chính là do hai lý do:
Dữ liệu để đào tạo AI LLM không đủ đầy đủ, mặc dù khối lượng dữ liệu đã rất lớn, nhưng vẫn không thể bao quát một số thông tin ngách hoặc chuyên nghiệp, trong trường hợp đó AI có xu hướng "bổ sung sáng tạo", điều này dẫn đến một số lỗi trong thời gian thực;
AI LLMs về bản chất dựa vào "lấy mẫu xác suất", điều này bao gồm việc phát hiện các mẫu thống kê và mối tương quan trong dữ liệu đào tạo, thay vì "hiểu biết" thực sự. Do đó, tính ngẫu nhiên của việc lựa chọn xác suất, sự không nhất quán trong kết quả đào tạo và lý luận có thể dẫn đến lỗi AI khi xử lý các câu hỏi thực tế có độ chính xác cao;
Làm thế nào để giải quyết vấn đề này? Trên nền tảng ArXiv của Đại học Cornell, một bài báo đã được công bố mô tả các phương pháp xác thực hợp tác bằng nhiều mô hình để nâng cao độ tin cậy của các kết quả LLMs.
Hiểu đơn giản là trước tiên cho phép mô hình chính tạo ra kết quả, sau đó kết hợp một vài mô hình kiểm tra để thực hiện "phân tích đa số phiếu" nhằm giảm thiểu các "ảo tưởng" phát sinh trong mô hình.
Trong chuỗi test, đã phát hiện ra rằng phương pháp này có thể nâng cao độ chính xác của đầu ra AI lên 95,6%.
Vì vậy, chắc chắn cần một nền tảng phân tán để kiểm tra, nhằm quản lý và kiểm tra quy trình hợp tác giữa mô hình chính và mô hình kiểm tra. Mira Network là một mạng trung gian được tạo ra đặc biệt để kiểm tra các AI LLMs, xây dựng một cấp độ kiểm tra đáng tin cậy giữa người dùng và các mô hình AI cơ bản.
Nhờ vào sự tồn tại của mạng này, các cấp độ xác thực có thể thực hiện các dịch vụ tích hợp, bao gồm bảo vệ quyền riêng tư, đảm bảo độ chính xác, thiết kế mở rộng, các giao diện API tiêu chuẩn hóa và các dịch vụ tích hợp khác, cũng như khả năng tích hợp AI vào các kịch bản ứng dụng phân chia khác nhau có thể được mở rộng thông qua việc giảm thiểu ảo giác đầu ra của AI LLM, điều này cũng là một thực tiễn trong quá trình triển khai dự án AI LLM bởi mạng lưới xác thực phân tán Crypto.
Chẳng hạn, Mira Network đã chia sẻ một vài trường hợp trong lĩnh vực tài chính, giáo dục và môi trường của blockchain để xác nhận:
Sau khi tích hợp Mira trên nền tảng giao dịch Gigabrain, hệ thống có thể thêm một cấp độ xác minh độ chính xác của phân tích thị trường và dự đoán, lọc ra các đề xuất không đáng tin cậy, điều này có thể nâng cao độ chính xác của các tín hiệu giao dịch AI, làm cho việc ứng dụng AI LLMs trong các kịch bản DeFi trở nên đáng tin cậy hơn.
Learnrite sử dụng mira để kiểm tra các câu hỏi kiểm tra tiêu chuẩn hóa được tạo ra bởi trí tuệ nhân tạo, cho phép các cơ sở giáo dục sử dụng nội dung được tạo ra bởi trí tuệ nhân tạo ở quy mô mà không làm tổn hại đến độ chính xác của nội dung các bài kiểm tra giáo dục nhằm duy trì các tiêu chuẩn giáo dục nghiêm ngặt;
Dự án blockchain Kernel sử dụng cơ chế đồng thuận LLM từ Mira, tích hợp nó vào hệ sinh thái BNB, tạo ra một mạng lưới xác thực phân cấp DVN, đảm bảo một mức độ chính xác và an ninh nhất định trong việc thực hiện các tính toán AI trên blockchain.