تحدي هيمنة برمجيات AI من Nvidia! Modular تبني منصة AI متكاملة عبر الأجهزة في مواجهة CUDA

robot
إنشاء الملخص قيد التقدم

في هذه اللحظة التي تجتاح فيها الذكاء الاصطناعي التوليدي العالم، لا يمكن تقريبًا لأي من LLM، وخدمات السحاب، والشركات الناشئة في مجال الذكاء الاصطناعي أن تتجاهل نفس مجموعة البنية التحتية الأساسية، وهي نظام CUDA البيئي البرمجي الخاص بـ NVIDIA (. هذا الهيكل البرمجي، الذي تم تصميمه في الأصل لبطاقات الرسومات، قد توسع تدريجيًا على مدى العقدين الماضيين ليصبح “نظام التشغيل الخفي” الذي يعمل به قطاع الذكاء الاصطناعي.

تسعى شركة Modular الناشئة، التي تأسست في عام 2022، إلى تحدي هذا الهيكل المركزي للغاية الذي تسيطر عليه شركة واحدة. هدف Modular ليس إنشاء شريحة جديدة، بل بناء “منصة حزمة برمجيات AI محمولة”، مما يسمح لنماذج AI بالتحرك بحرية بين وحدات معالجة الرسومات المختلفة والمسرعات، دون أن تكون مقيدة في نظام NVIDIA وCUDA البيئي.

نقطة انطلاق ريادة الأعمال لعام 2022، مهندسو البرمجيات يتجاوزون نواة CUDA

تأسست Modular في عام 2022 من قبل مهندسين برمجيات أساسيين من Apple و Google. الرئيس التنفيذي كريس لاتنر هو من قام بتطوير نظام المترجم Swift و LLVM، بينما شارك المؤسس المشارك تيم ديفيس في بنية البرنامج الأساسية لـ TPU من Google.

لقد شهد كلاهما كيف أن الأجهزة الجديدة “تفتح السوق من خلال البرمجيات”، لذلك اختاروا مغادرة شركات التكنولوجيا الكبرى، وتحدي الهيمنة البرمجية للذكاء الاصطناعي التي تمثلها CUDA. تبدو هذه الحرب غير المتكافئة مجنونة تقريبًا في نظر الصناعة، ولكن بسبب فهمهم العميق لأسس النظام، يُنظر إليهم على أنهم من بين القلائل الذين لديهم الفرصة لتجربة ذلك.

من الصعب استبدال CUDA، القيود الهيكلية لصناعة الذكاء الاصطناعي

كانت CUDA في الأصل مجرد أداة تسمح لبطاقات الرسومات بأن تكون قابلة للبرمجة، ومع صعود التعلم العميق، توسعت تدريجياً لتصبح نظاماً بيئياً كاملاً يغطي اللغات والمكتبات والمترجمات ومحركات الاستدلال.

بالنسبة لمعظم فرق الذكاء الاصطناعي، يكاد يكون من المستحيل تجنب CUDA عند استخدام وحدات معالجة الرسومات من NVIDIA. حتى مع وجود وحدات معالجة الرسومات من AMD أو TPU أو شرائح مطورة داخلية من مزودي الخدمات السحابية في السوق، لا يزال كل نوع من الأجهزة مرتبطًا ببرمجيات خاصة، ويميل المطورون بشكل طبيعي إلى اختيار CUDA الأكثر نضجًا والأدوات الأكثر شمولاً، مما يشكل هيكل صناعة مغلق بشدة.

الهندسة بدون حوافز ، أصبحت في الواقع نقطة انطلاق

أشار لاتنر إلى أن البرمجيات القابلة للنقل عبر الشرائح والبائعين ليست غير مهمة، بل “لا يوجد أحد لديه حافز كافٍ لتحمل التكاليف”. هذه الأنواع من المشاريع صعبة للغاية، وفترة استردادها طويلة، ولا تكاد تُرى النتائج التجارية في الأجل القصير، لكنها القدرة التي يتوق إليها القطاع بأسره.

إن هذه المفارقة هي التي جعلت Modular تختار قبل انفجار الذكاء الاصطناعي التوليدي، أن تستثمر مبكرًا في تطوير الأنظمة الأساسية على المدى الطويل، وأن تبتعد عن أضواء السوق عمدًا خلال السنوات الثلاث الأولى بعد تأسيسها.

ثلاث سنوات من الجهد المنخفض، التمويل والفريق في مكانهما تدريجياً

بحلول عام 2025 ، جمعت Modular حوالي 380 مليون دولار من التمويل ، ويشمل المستثمرون العديد من شركات رأس المال الاستثماري الرائدة في وادي السيليكون. بعد إكمال أحدث جولة تمويل في سبتمبر 2025 ، بلغت قيمة الشركة حوالي 1.6 مليار دولار.

تسمح هذه الموارد لـ Modular بتجنيد مهندسين كبار من Google و Apple، لتشكيل فريق يركز على المترجمات، وبرامج النظام، وبنية الذكاء الاصطناعي، ويستمر في تحسين مجموعة البرمجيات الكاملة.

نظام البرمجيات ثلاثي الطبقات، من اللغة إلى مجموعة الحوسبة

يتكون جوهر تقنية Modular من ثلاث طبقات، وهي:

الطبقة العليا: لماموث، تستخدم لمساعدة الشركات في جدولة وإدارة قوة الحوسبة في بيئات متعددة من وحدات المعالجة الرسومية ومزودي الخدمة، وحل مشاكل النشر الفعلي والصيانة.

الطبقة الوسطى: هي محرك استنتاج MAX، المسؤول عن تشغيل النموذج فعليًا، وقد دعم NVIDIA و AMD و Apple Silicon.

الطبقة الأساسية: هي لغة برمجة Mojo، التي تتميز بقواعد نحوية قريبة من Python وأداء قريب من C++، ويمكن دمجها مع الأطر الرئيسية للذكاء الاصطناعي.

2025 التحقق الرئيسي، طبقة الحساب الموحدة تتشكل رسمياً

في سبتمبر 2025 ، أعلنت Modular عن نتائج الاختبارات الرئيسية ، حيث تم تشغيل كل من NVIDIA Blackwell B200 و AMD MI355X بأداء عالي على نفس منصة البرمجيات ، حيث كان أداء MI355X أفضل بنحو 50% مقارنة ببرمجيات AMD الأصلية.

في 12/22، تم إصدار منصة Modular 25.6 رسميًا، تدعم بشكل كامل مراكز البيانات و GPU من فئة المستهلك، ولأول مرة تجعل Mojo يدعم مباشرة Apple Silicon. وصفتها الشركة رسميًا بأنها “اكتب مرة واحدة، وتشغيل في أي مكان”، أي:

“الكود الذي كتبه المطورون باستخدام Mojo لا يحتاج إلى كتابة إصدار منفصل لكل من NVIDIA وAMD وApple Silicon، نفس البرنامج يمكن تشغيله على وحدات معالجة الرسوم المختلفة من موردين مختلفين.”

رمز الوحدة ينتقل مستوى حسابات الذكاء الاصطناعي من المفهوم إلى التطبيق الفعلي.

هذه المقالة تتحدى هيمنة برامج الذكاء الاصطناعي من نفيديا! تم بناء Modular كمنصة تكامل الذكاء الاصطناعي عبر الأجهزة لمواجهة CUDA ظهرت لأول مرة في Chain News ABMedia.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت