من الواضح للجميع أن أكبر عائق أمام إدخال نماذج الذكاء الاصطناعي الكبيرة في مجالات تطبيقية مثل المالية والرعاية الصحية والقانون هو مشكلة "الوهم" في النتائج التي لا تتوافق مع متطلبات الدقة في السيناريوهات الواقعية. كيف يمكن حل هذه المشكلة؟ مؤخرًا، أطلقت @Mira_Network شبكة اختبار عامة، مقدمة مجموعة من الحلول، لذلك سأخبركم بما يحدث:
أولاً، أدوات النماذج الكبيرة للذكاء الاصطناعي لديها حالات من "الأوهام" التي يمكن للجميع الشعور بها، والسبب في ذلك بشكل رئيسي هو اثنان: بيانات تدريب AI LLM ليست كاملة بما فيه الكفاية، على الرغم من أن حجم البيانات كبير جدًا، إلا أنه لا يمكن تغطية بعض المعلومات المتخصصة أو الاحترافية، وفي هذه الحالة يكون AI عرضة "للإضافة الإبداعية"، مما يؤدي بدوره إلى بعض الأخطاء في الوقت الحقيقي؛ تعتمد نماذج اللغة الكبيرة للذكاء الاصطناعي أساسًا على "اختيار احتمالي"، والذي يتمثل في اكتشاف الأنماط الإحصائية والارتباطات في بيانات التدريب، وليس في "الفهم" الحقيقي. لذلك، قد تؤدي عشوائية الاختيار الاحتمالي، وعدم اتساق نتائج التدريب والاستدلال إلى أخطاء في الذكاء الاصطناعي عند معالجة الأسئلة الواقعية عالية الدقة؛ كيف يمكن حل هذه المشكلة؟ تم نشر مقال على منصة ArXiv بجامعة كورنيل يصف طرق التحقق المشترك بواسطة عدة نماذج لزيادة موثوقية نتائج LLMs. الفهم البسيط هو السماح أولاً للنموذج الأساسي بتوليد النتائج، ثم دمج عدة نماذج للتحقق لإجراء "تحليل الأغلبية" بهدف تقليل "الأوهام" التي تظهر في النموذج. في سلسلة من الاختبارات، تم اكتشاف أن هذه الطريقة يمكن أن تزيد من دقة مخرجات الذكاء الاصطناعي إلى 95.6%. لذا، من المؤكد أن هناك حاجة إلى منصة موزعة للتحقق من أجل إدارة والتحقق من عملية التعاون بين النموذج الأساسي ونموذج التحقق. تعتبر شبكة ميرا شبكة وسيطة مصممة خصيصًا للتحقق من نماذج الذكاء الاصطناعي LLMs، والتي تبني مستوى موثوقًا من التحقق بين المستخدم ونماذج الذكاء الاصطناعي الأساسية. بفضل وجود هذه الشبكة، يمكن تنفيذ خدمات متكاملة تشمل حماية الخصوصية، وضمان الدقة، وتصميم قابل للتوسع، وواجهات برمجة التطبيقات القياسية، وغيرها من الخدمات المتكاملة، كما يمكن توسيع إمكانية إدماج الذكاء الاصطناعي في سيناريوهات تطبيقية متعددة من خلال تقليل الوهم الناتج عن الذكاء الاصطناعي LLM، وهو أيضًا ممارسة في عملية تنفيذ مشروع الذكاء الاصطناعي LLM عبر شبكة التحقق الموزعة Crypto. على سبيل المثال، شاركت شبكة ميرا بعدة حالات في مجالات المالية والتعليم والبيئة للبلوكشين، لتأكيد: بمجرد دمج Mira في منصة التداول Gigabrain ، يمكن للنظام إضافة طبقة أخرى من التحقق من دقة تحليل السوق والتنبؤات عن طريق تصفية العروض غير الموثوقة ، والتي يمكن أن تحسن دقة إشارات التداول الذكاء الاصطناعي ، مما يجعل تطبيق الذكاء الاصطناعي LLMs في سيناريوهات DeFi أكثر موثوقية. تستخدم Learnrite mira للتحقق من أسئلة الاختبار الموحدة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما يسمح للمؤسسات التعليمية باستخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على نطاق واسع دون المساس بدقة محتوى اختبارات التعليم لدعم المعايير التعليمية الصارمة؛ يستفيد مشروع Kernel blockchain من آلية إجماع LLM الخاصة ب Mira ، ودمجها في النظام البيئي BNB ، وإنشاء شبكة تحقق من DVN لامركزية توفر مستوى معينا من الدقة والأمان لأداء الحوسبة الذكاء الاصطناعي على blockchain.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
من الواضح للجميع أن أكبر عائق أمام إدخال نماذج الذكاء الاصطناعي الكبيرة في مجالات تطبيقية مثل المالية والرعاية الصحية والقانون هو مشكلة "الوهم" في النتائج التي لا تتوافق مع متطلبات الدقة في السيناريوهات الواقعية. كيف يمكن حل هذه المشكلة؟ مؤخرًا، أطلقت @Mira_Network شبكة اختبار عامة، مقدمة مجموعة من الحلول، لذلك سأخبركم بما يحدث:
أولاً، أدوات النماذج الكبيرة للذكاء الاصطناعي لديها حالات من "الأوهام" التي يمكن للجميع الشعور بها، والسبب في ذلك بشكل رئيسي هو اثنان:
بيانات تدريب AI LLM ليست كاملة بما فيه الكفاية، على الرغم من أن حجم البيانات كبير جدًا، إلا أنه لا يمكن تغطية بعض المعلومات المتخصصة أو الاحترافية، وفي هذه الحالة يكون AI عرضة "للإضافة الإبداعية"، مما يؤدي بدوره إلى بعض الأخطاء في الوقت الحقيقي؛
تعتمد نماذج اللغة الكبيرة للذكاء الاصطناعي أساسًا على "اختيار احتمالي"، والذي يتمثل في اكتشاف الأنماط الإحصائية والارتباطات في بيانات التدريب، وليس في "الفهم" الحقيقي. لذلك، قد تؤدي عشوائية الاختيار الاحتمالي، وعدم اتساق نتائج التدريب والاستدلال إلى أخطاء في الذكاء الاصطناعي عند معالجة الأسئلة الواقعية عالية الدقة؛
كيف يمكن حل هذه المشكلة؟ تم نشر مقال على منصة ArXiv بجامعة كورنيل يصف طرق التحقق المشترك بواسطة عدة نماذج لزيادة موثوقية نتائج LLMs.
الفهم البسيط هو السماح أولاً للنموذج الأساسي بتوليد النتائج، ثم دمج عدة نماذج للتحقق لإجراء "تحليل الأغلبية" بهدف تقليل "الأوهام" التي تظهر في النموذج.
في سلسلة من الاختبارات، تم اكتشاف أن هذه الطريقة يمكن أن تزيد من دقة مخرجات الذكاء الاصطناعي إلى 95.6%.
لذا، من المؤكد أن هناك حاجة إلى منصة موزعة للتحقق من أجل إدارة والتحقق من عملية التعاون بين النموذج الأساسي ونموذج التحقق. تعتبر شبكة ميرا شبكة وسيطة مصممة خصيصًا للتحقق من نماذج الذكاء الاصطناعي LLMs، والتي تبني مستوى موثوقًا من التحقق بين المستخدم ونماذج الذكاء الاصطناعي الأساسية.
بفضل وجود هذه الشبكة، يمكن تنفيذ خدمات متكاملة تشمل حماية الخصوصية، وضمان الدقة، وتصميم قابل للتوسع، وواجهات برمجة التطبيقات القياسية، وغيرها من الخدمات المتكاملة، كما يمكن توسيع إمكانية إدماج الذكاء الاصطناعي في سيناريوهات تطبيقية متعددة من خلال تقليل الوهم الناتج عن الذكاء الاصطناعي LLM، وهو أيضًا ممارسة في عملية تنفيذ مشروع الذكاء الاصطناعي LLM عبر شبكة التحقق الموزعة Crypto.
على سبيل المثال، شاركت شبكة ميرا بعدة حالات في مجالات المالية والتعليم والبيئة للبلوكشين، لتأكيد:
بمجرد دمج Mira في منصة التداول Gigabrain ، يمكن للنظام إضافة طبقة أخرى من التحقق من دقة تحليل السوق والتنبؤات عن طريق تصفية العروض غير الموثوقة ، والتي يمكن أن تحسن دقة إشارات التداول الذكاء الاصطناعي ، مما يجعل تطبيق الذكاء الاصطناعي LLMs في سيناريوهات DeFi أكثر موثوقية.
تستخدم Learnrite mira للتحقق من أسئلة الاختبار الموحدة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، مما يسمح للمؤسسات التعليمية باستخدام المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي على نطاق واسع دون المساس بدقة محتوى اختبارات التعليم لدعم المعايير التعليمية الصارمة؛
يستفيد مشروع Kernel blockchain من آلية إجماع LLM الخاصة ب Mira ، ودمجها في النظام البيئي BNB ، وإنشاء شبكة تحقق من DVN لامركزية توفر مستوى معينا من الدقة والأمان لأداء الحوسبة الذكاء الاصطناعي على blockchain.