العقود الآجلة
وصول إلى مئات العقود الدائمة
TradFi
الذهب
منصّة واحدة للأصول التقليدية العالمية
الخیارات المتاحة
Hot
تداول خيارات الفانيلا على الطريقة الأوروبية
الحساب الموحد
زيادة كفاءة رأس المال إلى أقصى حد
التداول التجريبي
مقدمة حول تداول العقود الآجلة
استعد لتداول العقود الآجلة
أحداث مستقبلية
"انضم إلى الفعاليات لكسب المكافآت "
التداول التجريبي
استخدم الأموال الافتراضية لتجربة التداول بدون مخاطر
إطلاق
CandyDrop
اجمع الحلوى لتحصل على توزيعات مجانية.
منصة الإطلاق
-التخزين السريع، واربح رموزًا مميزة جديدة محتملة!
HODLer Airdrop
احتفظ بـ GT واحصل على توزيعات مجانية ضخمة مجانًا
منصة الإطلاق
كن من الأوائل في الانضمام إلى مشروع التوكن الكبير القادم
نقاط Alpha
تداول الأصول على السلسلة واكسب التوزيعات المجانية
نقاط العقود الآجلة
اكسب نقاط العقود الآجلة وطالب بمكافآت التوزيع المجاني
تتعاون MIT مع NVIDIA لتطوير تقنية TLT، مما يحقق أعلى تسريع في تدريب نماذج الذكاء الاصطناعي التوليدية بمعدل زيادة يصل إلى 210%
أعلن موقع IT之家 في 28 فبراير أن موقع MIT News نشر في 26 فبراير مقالًا، أفاد بأن معهد ماساتشوستس للتكنولوجيا (MIT) بالتعاون مع شركة Nvidia وغيرها من الجهات قد طورت تقنية “ترويض الذيل الطويل” (TLT)، والتي يمكنها تحسين كفاءة تدريب نماذج اللغات الكبيرة للاستدلال (LLM) بشكل كبير.
وبحسب ما نقلته IT之家 عن المقال، فإن نماذج الاستدلال الكبيرة تتفوق في حل المشكلات المعقدة من خلال تفكيك الخطوات، لكن خلال تدريب التعلم المعزز (RL) تكون تكاليف الحوسبة واستهلاك الطاقة ضخمة للغاية.
اكتشف فريق البحث أن مرحلة “الاستدلال” (rollout) التي تتضمن توليد عدة إجابات بديلة تشغل ما يصل إلى 85% من وقت التدريب. وبسبب اختلاف طول الإجابات التي تولدها معالجات مختلفة، يتم إجبار المعالجات التي تنهي بسرعة على الخمول، في انتظار إنجاز المعالجات الأخرى لمهام النصوص الطويلة، ما يؤدي إلى اختناق خطير في الكفاءة.
ولمعالجة هذه المشكلة، اقترح باحثو MIT، بالتعاون مع Nvidia ومعهد الاتحاد السويسري للتكنولوجيا وغيرها، حلًا تكيفيًا يُسمى “ترويض الذيل الطويل” (TLT).
تتمثل الفكرة الأساسية في استخدام تقنية “فك الترميز الاستباقي” بشكل مبتكر، إذ يتم تدريب نموذج أصغر يُسمى “نموذج المسودة” (drafter) للتنبؤ بسرعة بمخرجات النموذج الكبير المستقبلية، ثم يقوم النموذج الكبير بالتحقق دفعة واحدة من هذه التخمينات. وبهذه الطريقة، لا يحتاج النموذج الكبير إلى توليد المخرجات خطوة بخطوة وبشكل تسلسلي، مما يسرّع عملية المعالجة بشكل كبير.
在 فك الترميز الاستباقي التقليدي، غالبًا ما يتم تدريب نموذج المسودة مرة واحدة فقط ثم يبقى ثابتًا. ومع ذلك، في التعلم المعزز يحتاج النموذج الرئيسي إلى التحديث آلاف المرات، لذا يصبح نموذج المسودة الثابت غير صالح بسرعة.
لذلك، يُدخل نظام TLT “مدرب المسودة التكيفي”. بمجرد أن تنجز بعض المعالجات الاستعلامات القصيرة ويدخل النظام في حالة خمول، يقوم النظام فورًا بجدولة تلك المعالجات لتدريب نموذج المسودة في الوقت الحقيقي.
وفي الوقت نفسه، تقوم “محرك الاستدلال التكيفي” بضبط استراتيجية فك الترميز تلقائيًا وفقًا لخصائص حمل العمل، لضمان بقاء نموذج المسودة متزامنًا بدرجة عالية مع النموذج الكبير المستهدف، دون زيادة أي تكلفة إضافية في الحوسبة.
تُظهر الاختبارات على مجموعات بيانات واقعية أن تقنية TLT ترفع سرعة تدريب عدة نماذج لغات كبيرة للاستدلال بنسبة تتراوح بين 70% إلى 210% مع الحفاظ على دقة النموذج دون أي خسارة.
والأمر لا يتوقف عند ذلك؛ إذ يمكن أيضًا استخدام نموذج المسودة الخفيف المدرب كمنتج ثانوي مجاني مباشرة لعمليات النشر اللاحقة بكفاءة أعلى. ويخطط فريق البحث في المستقبل لإدماج هذه التقنية في المزيد من أطر التدريب والاستدلال، بهدف خفض تكاليف تطوير الذكاء الاصطناعي وتحسين كفاءة استغلال الطاقة.