تحالف يحث OpenAI على إلغاء مبادرة الذكاء الاصطناعي بسبب مخاوف السلامة للأطفال

Decrypt

ملخص سريع

  • تحالف من مجموعات الدعوة يطالب OpenAI بسحب مبادرة التصويت على قانون السلامة الذكية في كاليفورنيا.
  • يقول النقاد إن المقترح سيحد من المساءلة القانونية ويضعف الحماية للأطفال.
  • بينما أوقفت OpenAI الحملة، يدعي التحالف أنه لا يزال يسيطر على المبادرة قبل المواعيد النهائية المهمة.

يدعو تحالف من مجموعات الدعوة شركة OpenAI المطورة لـ ChatGPT إلى سحب مبادرة التصويت في كاليفورنيا التي يقول النقاد إنها قد تضعف حماية الأطفال وتحد من المساءلة القانونية لشركات الذكاء الاصطناعي. وفي رسالة أرسلت إلى OpenAI يوم الأربعاء، واطلعت عليها Decrypt، جادلت المجموعة بأن المقترح سيحصر حماية سلامة الأطفال بشكل ضيق، ويحد من قدرة الأسر على رفع الدعاوى، ويقيد قدرة كاليفورنيا على تعزيز قوانين الذكاء الاصطناعي في المستقبل. وتوقعت الرسالة، التي وقعها أكثر من عشرين منظمة بما في ذلك منظمة Encode AI غير الربحية المعنية بسياسات الذكاء الاصطناعي، ومركز التكنولوجيا الإنسانية، ومركز المعلومات الخاصة بالخصوصية الإلكترونية، أن تتخلى OpenAI عن لجنة التصويت وتتراجع عن المقترح بينما يعمل المشرعون على التشريعات.

 قال آدم بيلن، المدير التنفيذي المشارك لـ Encode AI، لـ Decrypt: “المطلب الرئيسي هنا هو أن تتراجع OpenAI عن التصويت.” تدور الخلافات حول مشروع “قانون الآباء والأطفال الآمن للذكاء الاصطناعي”، وهو مبادرة تصويت في كاليفورنيا تدعمها OpenAI و Common Sense Media، والتي ستضع قواعد لكيفية تفاعل روبوتات الدردشة مع القاصرين، بما في ذلك متطلبات السلامة ومعايير الامتثال. وفي الرسالة، جادلت المجموعات بأن تلك القواعد غير كافية. وقالوا إن المقترح يحدد الضرر بشكل ضيق جدًا، ويقيد التنفيذ، ويحد من قدرة الأسر على رفع الدعاوى عندما يتعرض الأطفال للأذى.

لكن OpenAI تسيطر على المبادرة الفعلية، قال بيلن. “لدى OpenAI القدرة على سحبها أو تخصيص الأموال للتوقيعات. كل السلطة القانونية في أيديهم”، قال. “لم يسحبوا المبادرة فعليًا من التصويت. هذه استراتيجية شائعة في كاليفورنيا، حيث تضع مبادرة وتخصص أموالًا للجنة.” وتشير الرسالة إلى تعريف المبادرة لـ"الضرر الشديد"، الذي يركز على الإصابات الجسدية المرتبطة بالانتحار أو العنف، مستبعدًا مجموعة من الآثار النفسية التي أثارتها الباحثون والأسر كمخاوف. كما تبرز بنودًا تمنع الآباء والأطفال من رفع الدعاوى بموجب المبادرة وتقييد أدوات التنفيذ المتاحة للمسؤولين الحكوميين والمحليين. وتتمحور مخاوف أخرى حول كيفية تعامل المقترح مع بيانات المستخدمين. وتقول المجموعات إن تعريف المحتوى المشفر للمستخدمين قد يصعب الوصول إلى محادثات روبوتات الدردشة التي كانت أدلة رئيسية في الدعاوى القضائية الأخيرة. قال بيلن: “نقرأ ذلك على أنه محاولة لمنع الأسر من الكشف عن سجلات الدردشة لأطفالهم المتوفين في المحكمة.” كما حذرت الرسالة من أن المقترح قد يكون من الصعب تعديله إذا تم تمريره. فسيستلزم ذلك تصويت ثلثي أعضاء الهيئة التشريعية لتعديله وربط التغييرات المستقبلية بمعايير مثل دعم “التقدم الاقتصادي”، وهو ما يقول المدافعون إنه قد يحد من قدرة المشرعين على الاستجابة للمخاطر الجديدة. قال بيلن إن المبادرة لا تزال جزءًا من المفاوضات الجارية في ساكرامنتو، حتى مع توقف OpenAI عن جهودها لتأهيلها للتصويت.

“لديهم 10 ملايين دولار في اللجنة، ثم تقول للهيئة التشريعية، إذا لم تفعلوا ما نريد، سنضع الأموال في الحملة ونحصل على التوقيعات ونضعها على التصويت، وإذا مرت، ستتجاوز أي شيء تفعله الهيئة التشريعية”، قال. “ما يحدث الآن هو أنهم يحاولون توجيه والسيطرة على ما يفعله المشرعون من خلال استخدام المبادرة كتهديد يتركونه على الطاولة.” وليس OpenAI الشركة الوحيدة التي تواجه تدقيقًا بشأن أضرار روبوتات الدردشة. ففي وقت سابق من هذا الشهر، رفعت عائلة جوناثان جافالاس دعوى على Google، زاعمة أن Gemini أدت إلى وهم تصاعد إلى عنف وانتحاره النهائي. ومع ذلك، قال بيلن إن نهج OpenAI يعكس نمطًا أوسع في صناعة التكنولوجيا. “الاستراتيجية التي تُستخدم على الذكاء الاصطناعي من قبل هؤلاء الكبار، خاصة Google و Meta و Amazon، هي نفس الاستراتيجية التي كانت تُستخدم سابقًا في قضايا تقنية أخرى”، قال. في الوقت الحالي، يركز التحالف على دفع OpenAI لسحب المقترح والسماح للمشرعين بالمضي قدمًا من خلال العملية التشريعية. “من المهم جدًا، خاصة للشركات التي تطرح تلك التكنولوجيا، ألا تكون هي التي تكتب القواعد التي تنظمها، لأن ذلك لا يوفر حماية ذات معنى”، قال بيلن. ولم ترد OpenAI على طلب Decrypt للتعليق على الفور.

شاهد النسخة الأصلية
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات