هل يمكن لشبكة ميرا حل مشكلة "الوهم" في نماذج الذكاء الاصطناعي الكبيرة؟

DeepFlowTech
MIRA1.2%

كتبه: هاوتيان

الجميع يعلم أن العقبة الأكبر في تطبيق نماذج الذكاء الاصطناعي الكبيرة في مجالات مثل المالية والرعاية الصحية والقانون هي مشكلة “الهلاوس” في نتائج الذكاء الاصطناعي التي لا تتوافق مع دقة التطبيقات العملية المطلوبة. كيف يمكن حل هذه المشكلة؟ مؤخرًا، أطلقت @Mira_Network الشبكة العامة للاختبار وقدمت مجموعة من الحلول، دعوني أشرح ما يحدث:

أولاً، توجد حالات “هلوسة” في أدوات النماذج الكبيرة للذكاء الاصطناعي، ويمكن للجميع أن يشعر بذلك، والسبب الرئيسي لذلك هو نقطتان:

1، بيانات تدريب AI LLMs ليست كاملة بما فيه الكفاية، على الرغم من أن حجم البيانات كبير جداً، إلا أنها لا تغطي بعض المعلومات في المجالات النادرة أو المتخصصة، وفي هذه الحالة تميل AI إلى القيام بـ «الإكمال الإبداعي» مما يؤدي إلى بعض الأخطاء في الوقت الفعلي؛

  1. يعتمد عمل الذكاء الاصطناعي LLMs بشكل أساسي على “أخذ العينات الاحتمالية” ، وهو تحديد الأنماط الإحصائية والارتباطات في بيانات التدريب ، بدلا من “الفهم” حقا ، وبالتالي فإن عشوائية أخذ العينات الاحتمالية وعدم اتساق نتائج التدريب والاستدلال سيؤدي إلى التحيز في معالجة الذكاء الاصطناعي للمشاكل الواقعية عالية الدقة ؛

كيف يمكن حل هذه المشكلة؟ نشرت منصة ArXiv بجامعة كورنيل مقالاً حول طريقة للتحقق من موثوقية نتائج LLMs من خلال نماذج متعددة.

ببساطة ، يعني ذلك السماح للنموذج الرئيسي بتوليد النتائج أولاً ، ثم دمج عدة نماذج تحقق لإجراء “تحليل تصويت الأغلبية” على هذه المشكلة ، مما يمكن أن يقلل من “الأوهام” الناتجة عن النموذج.

في سلسلة من الاختبارات، تم اكتشاف أن هذه الطريقة يمكن أن تزيد من دقة مخرجات الذكاء الاصطناعي إلى 95.6%.

إذا كان الأمر كذلك، فبالتأكيد نحتاج إلى منصة تحقق موزعة لإدارة والتحقق من عملية التفاعل التعاوني بين النموذج الرئيسي ونموذج التحقق، شبكة ميرا هي شبكة وسيطة مصممة خصيصًا للتحقق من نماذج الذكاء الاصطناعي الكبيرة، حيث أنشأت طبقة تحقق موثوقة بين المستخدم ونموذج الذكاء الاصطناعي الأساسي.

مع وجود هذه الشبكة من طبقة التحقق، يمكن تحقيق خدمات متكاملة تشمل حماية الخصوصية، ضمان الدقة، تصميم قابل للتوسع، واجهات برمجة التطبيقات القياسية، ويمكن من خلال تقليل أوهام ناتج نماذج اللغة الكبيرة AI توسيع إمكانية تطبيق AI في مختلف سيناريوهات التطبيقات الفرعية، كما أن هذه هي ممارسة لتمكين الشبكة الموزعة Crypto من التأثير في عملية تنفيذ نماذج اللغة الكبيرة AI.

على سبيل المثال، شاركت شبكة ميرا بعدة حالات في المجالات المالية والتعليم وبيئة blockchain يمكن أن تدعمها:

  1. بعد دمج Gigabrain مع Mira، يمكن للنظام إضافة حلقة تحقق لزيادة دقة تحليل السوق والتنبؤات، وتصفيه الاقتراحات غير الموثوقة، مما يمكن أن يزيد من دقة إشارات التداول بالذكاء الاصطناعي، ويجعل دور نماذج اللغة الكبيرة أكثر موثوقية في سيناريوهات DeFai؛

  2. يستفيد Learnrite من mira للتحقق من صحة أسئلة الاختبار الموحدة التي تم إنشاؤها الذكاء الاصطناعي ، مما يسمح للمؤسسات التعليمية بالاستفادة من المحتوى الذي تم إنشاؤه الذكاء الاصطناعي على نطاق واسع دون المساس بدقة محتوى الاختبارات التعليمية للحفاظ على معايير تعليمية صارمة ؛

  3. مشروع Blockchain Kernel استخدم آلية توافق LLM من Mira ودمجها في نظام BNB البيئي، مما أدى إلى إنشاء شبكة التحقق اللامركزية DVN، مما يضمن إلى حد ما دقة وأمان تنفيذ حسابات الذكاء الاصطناعي على blockchain.

أعلاه.

في الواقع، توفر شبكة ميرا خدمة شبكة توافق الوسيطة، وبالتأكيد ليست الطريقة الوحيدة لتعزيز قدرات تطبيقات الذكاء الاصطناعي. في الحقيقة، هناك مسارات أخرى اختيارية مثل تعزيز التدريب من خلال البيانات، وتعزيز التفاعل من خلال نماذج متعددة الوسائط الكبيرة، وتعزيز الحوسبة الخاصة من خلال تقنيات التشفير المحتملة مثل ZKP و FHE و TEE، وغيرها. لكن بالمقارنة، تكمن قيمة حل ميرا في سرعة التطبيق العملي والنتائج المباشرة.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات