
أطلقت Fireworks AI نسخة معاينة من Fireworks Training، لتوسّع موقعها من مجرد مزوّد لبنية تحتية للاستدلال إلى منصة متكاملة تجمع بين «التدريب + النشر». تأسست شركة البنية التحتية للذكاء الاصطناعي هذه على يد مهندسَي Meta سابقَين، لين تشياو (Lin Qiao) الذي شارك في بناء PyTorch. وتصل قيمتها حاليًا إلى 4 مليارات دولار، كما بلغ إجمالي حجم التوكنات التي تتم معالجتها يوميًا 15 تريليون.
تم تصميم البنية المكوّنة من 3 طبقات في Fireworks Training لتناسب المستخدمين ذوي خلفيات تقنية مختلفة، بحيث يمكن لفريق المنتج و مهندسي ML والباحثين تنفيذ العملية الكاملة من التدريب إلى النشر على منصة واحدة:
Training Agent (طبقة بدون كود):موجّهة لفرق المنتجات التي لا تمتلك بنية تحتية أساسية لـ ML، وتتيح وصف المهام ورفع البيانات لإتمام العملية من النهاية إلى النهاية، وتدعم حاليًا ضبط LoRA
Managed Training (طبقة المهندسين):موجّهة لمهندسي ML، وتدعم ضبط SFT وDPO وضبط التعلم المعزز، وتتضمن القدرة على التدريب على جميع المعلمات
Training API (طبقة الباحثين):موجّهة لفرق الأبحاث، ويمكن تخصيص دوال الخسارة ودورات التدريب، وتدعم خوارزميات التعلم المعزز مثل GRPO وDAPO
يختلف نطاق حجم التدريب على جميع المعلمات بشكل واضح—من نموذج Qwen3 8B على عقدة واحدة، إلى نموذج بمقياس تريليونات المعلمات Kimi K2.5 على 64 شريحة GPU من NVIDIA B200، بحيث يغطي النطاق الكامل لأحجام النماذج مفتوحة المصدر السائدة حاليًا.
من بين عملاء الاستدلال الحاليين لدى Fireworks AI، توجد بالفعل 3 شركات رائدة في تطبيقات الذكاء الاصطناعي أكملت تدريب التعلم المعزز المتقدم ونشرت بيانات أداء محددة.
Vercel:قامت بتدريب نموذج تصحيح تلقائي للأخطاء لمنتج توليد الكود v0، وبلغت نسبة توليد كود بدون أخطاء 93%، بينما كانت نسبة Claude Sonnet 3.5 عند 62% فقط في ظل الظروف نفسها؛ كما تحسّن زمن الاستجابة من النهاية إلى النهاية بمقدار 40 مرة مقارنةً بالنموذج المغلق الذي كان يُستخدم سابقًا.
Genspark:أجرت ضبطًا بالتعلم المعزز على نموذج Kimi K2 مفتوح المصدر ذي تريليونات المعلمات، بهدف بناء وكيل أبحاث عميقة. زاد عدد استدعاءات الأدوات بنسبة 33%، وانخفضت تكلفة الاستدلال بنسبة 50%.
Cursor:أتمت تدريب التعلم المعزز لـ Composer 2 بطريقة موزعة على 3 إلى 4 مراكز عالمية، وتتولى حاليًا المرتبة الأولى في CursorBench، كما حققت مشاركة نفس مجموعة موارد GPU بين تدريب النموذج واستدلال الإنتاج.
تتمثل الفكرة الأساسية المميزة التي تركز عليها Fireworks AI في «الاتساق العددي» بين التدريب والاستدلال. وبالنسبة لنماذج MoE (النماذج ذات الخبراء المختلطين)، قد تؤدي الانحرافات العددية الصغيرة في الحالات المخفية إلى آثار تضخيم متسلسلة في قرارات توجيه الخبراء، مما يجعل سلوك النموذج الذي تم تعلمه أثناء التدريب غير قادر على أن يُعاد إنتاجه بالكامل أثناء الاستدلال.
تنشر Fireworks قيم تباعد KL بين التدريب والاستدلال لجميع النماذج المدعومة، وتكون جميع النماذج أقل من 0.01، ما يوفّر معيارًا ثابتًا يمكن قياسه للمقارنة، ويساعد المطورين على تقييم مدى استقرار سلوك النموذج عند انتقاله من التدريب إلى النشر في بيئة الإنتاج.
Fireworks AI هي شركة تعمل في مجال البنية التحتية للاستدلال بالذكاء الاصطناعي، تأسست على يد لين تشياو (Lin Qiao) وهو مهندس سابق في Meta، وقد شارك في بناء PyTorch. تبلغ قيمة الشركة حاليًا 4 مليارات دولار، ويصل عدد التوكنات التي تتم معالجتها يوميًا إلى 15 تريليون، ومن بين العملاء الأساسيين Cursor وVercel وGenspark وغيرها من تطبيقات الذكاء الاصطناعي الرائجة.
يستهدف Training Agent فرق المنتجات التي لا تمتلك بنية تحتية لـ ML (بدون تشغيل بكود/بدون كود)؛ يستهدف Managed Training مهندسي ML (ويعتمد SFT وDPO وتدريب التعلم المعزز على جميع المعلمات)؛ يستهدف Training API فرق الأبحاث (حيث يمكن تخصيص دوال الخسارة ودورات التدريب، ويدعم خوارزميات مثل GRPO وDAPO).
يقيس تباعد KL الانحرافات العددية بين بيئتي التدريب والاستدلال، وكلما زاد حجم الانحرافات كانت سلوكيات النموذج بعد النشر أقل استقرارًا. ويعتبر هذا الأمر بالغ الأهمية بشكل خاص لنماذج MoE—فقد تتضخم الانحرافات الصغيرة لتصل إلى اختلافات في قرارات التوجيه. وتقوم Fireworks AI بنشر مؤشرات قابلة للقياس، ما يتيح للمطورين تقييم جودة الاتساق الموضوعية بين التدريب والنشر.