أنثروبي تقاضي الحكومة الأمريكية! تطالب بإلغاء أمر حظر "مخاطر سلسلة التوريد" لوزارة الدفاع

動區BlockTempo

شركة الذكاء الاصطناعي Anthropic والصراع مع الحكومة الأمريكية يتصاعد بشكل مستمر. وفقًا لوكالة رويترز، قامت وزارة الدفاع الأمريكية (البنتاغون) مؤخرًا بوضع Anthropic ضمن قائمة “مخاطر سلسلة التوريد”، مما يقيّد استخدام تقنياتها في العقود العسكرية. وأكدت Anthropic أن هذا التصنيف غير قائم على أساس قانوني، ورفعت دعوى قضائية أمام المحكمة الفيدرالية لإلغاء القرار.

(ملخص سابق: Anthropic يعيد التفاوض مع البنتاغون بشأن التعاون الدفاعي مع Claude، مع التمسك بالخطوط الحمراء الأخلاقية)
(معلومات إضافية: الرئيس التنفيذي لـ Anthropic يهاجم: عقود OpenAI مع البنتاغون كلها كذب، وAltman يتظاهر بأنه سفير سلام)

فهرس المقال

تبديل

  • البنتاغون يصنف Anthropic ضمن “مخاطر سلسلة التوريد”
  • نقطة الخلاف: هل يمكن استخدام الذكاء الاصطناعي للمراقبة والأسلحة؟
  • Anthropic: التصنيف غير قانوني وسنرفع دعوى
  • تصاعد الجدل حول تطبيقات الذكاء الاصطناعي العسكرية والأخلاقيات الشركاتية

دخلت شركة الذكاء الاصطناعي Anthropic والصراع مع الحكومة الأمريكية مرحلة قانونية رسمية. أعلنت وزارة الدفاع مؤخرًا أنها صنفت Anthropic ضمن “مخاطر سلسلة التوريد”، مما يحد من استخدام نماذجها الذكية في العقود العسكرية. وردت Anthropic بشدة، واصفةً القرار بأنه “غير مسبوق ويفتقر إلى أساس قانوني”، ورفعت دعوى أمام المحكمة الفيدرالية لإلغاء التصنيف ووقف تنفيذ القيود.

البنتاغون يصنف Anthropic ضمن “مخاطر سلسلة التوريد”

وفقًا لوكالة رويترز، أبلغت وزارة الدفاع الأمريكية شركة Anthropic رسميًا أن تقنياتها ونماذجها الذكية تعتبر “مخاطر على سلسلة التوريد”، وأن القرار ساري المفعول فورًا. يُستخدم هذا التصنيف عادةً لتقييد الموردين الذين قد يشكلون خطرًا على الأمن القومي، وقد يمنع منتجاتهم من المشاركة في مشتريات الدفاع أو العقود العسكرية.

عمليًا، يعني ذلك أن المقاولين والموردين الذين يعملون مع الجيش الأمريكي قد يُمنعون من استخدام نماذج Anthropic، مثل نظام Claude الشهير. وأشار المراقبون إلى أن هذا نادر جدًا، حيث غالبًا ما يُستخدم التصنيف ضد شركات أجنبية أو موردين يُعتبرون تهديدًا للأمن القومي، وليس ضد شركة أمريكية محلية.

نقطة الخلاف: هل يمكن استخدام الذكاء الاصطناعي للمراقبة والأسلحة؟

جوهر النزاع يكمن في قيود استخدام تقنيات الذكاء الاصطناعي التي تفرضها Anthropic. وفقًا لتقارير إعلامية متعددة، رفضت الشركة السماح باستخدام نماذجها في اثنين من الاستخدامات عالية الخطورة:

  1. أنظمة الأسلحة ذاتية القيادة بالكامل
  2. المراقبة الجماعية للمواطنين الأمريكيين

ومع ذلك، خلال مفاوضات مع وزارة الدفاع، طلبت الأخيرة أن تسمح النماذج باستخدام “جميع الاستخدامات القانونية”. لم تتفق الطرفان على قيود الأمان، مما أدى إلى فشل المفاوضات وقرار الحكومة بوضع Anthropic ضمن قائمة مخاطر سلسلة التوريد.

Anthropic: التصنيف غير قانوني وسنرفع دعوى

قال الرئيس التنفيذي لـ Anthropic، داريو أموديي، إن قرار وزارة الدفاع “غير قائم على أساس قانوني”، وحذر من أن هذا قد يفتح بابًا لمخاطر على الحكومة في معاقبة الشركات. ورفعت الشركة دعوى أمام المحكمة الفيدرالية، تطالب بإلغاء التصنيف ووقف تنفيذ القيود.

وأوضحت Anthropic أن التصنيف بـ"مخاطر سلسلة التوريد" يُستخدم عادةً ضد شركات أجنبية، وأن تطبيقه على شركة أمريكية قد يؤثر بشكل عميق على صناعة التكنولوجيا بشكل عام وعلى نمط التعاون مع الحكومة.

تصاعد الجدل حول تطبيقات الذكاء الاصطناعي العسكرية والأخلاقيات الشركاتية

يُشير محللون إلى أن هذه القضية تعكس تحديات جديدة تواجه صناعة الذكاء الاصطناعي: هل يمكن للشركات تقييد استخدام الحكومات لتقنياتها عندما تدخل في مجالات عسكرية وأمنية؟

يعتقد بعض الخبراء أن قدرة الحكومة على فرض عقوبات اقتصادية على الشركات بسبب قيودها الأمنية قد تضعف من استقلالية قرارات الشركات بشأن أمان وأخلاقيات الذكاء الاصطناعي. من ناحية أخرى، ترى القوات المسلحة أن تقنيات الذكاء الاصطناعي ذات أهمية استراتيجية للأمن الوطني، ويجب ألا تُقيد بشكل مفرط.

نتيجة هذه المعركة القانونية قد تحدد ما إذا كانت شركة Anthropic ستتمكن من استعادة التعاون مع الحكومة الأمريكية، وقد تضع سابقة مهمة لنماذج التعاون المستقبلية بين شركات الذكاء الاصطناعي والحكومات.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات