لماذا تحتاج الذكاء الاصطناعي إلى حوكمة
في المجتمع الإيكولوجي للمطورين AGI في اللغتين الصينية والإنجليزية، يركز المجتمع الصيني أكثر على مناقشة تحسين إنتاجية التكنولوجيا الذكية وتطوير واستكشاف الطلب على الأدوات الذكية، وترقية وتغيير البنية الصناعية الموجودة، بينما يركز المجتمع الإنجليزي أكثر على نوع من البارادايم التقني يتمثل في Auto-GPT، وتنفيذ مهام AGI الأوتوماتيكية بشكل كامل وذكاء عالي.
استكشاف مسارات التكنولوجيا هاتين مختلفتين يعني أن المجتمع المطور الصيني والمجتمع المطور الإنجليزي يواجهان اختلافات في مستقبل مخاطر الذكاء الاصطناعي والحوكمة. إن وعي كبار متخصصي الذكاء الاصطناعي في المجتمع الإنجليزي بمشاكل مخاطر الذكاء الاصطناعي يفوق بكثير وعي المديرين التنفيذيين في شركات التكنولوجيا في الصين.
على سبيل المثال، يمكن رؤية في ميثاق OpenAI أن OpenAI كانت تأخذ دائمًا في اعتبارها سلامة الذكاء الاصطناعي والرقابة السياسية العقلانية منذ أوائل تطويرها؛ وفي نداء ماسك لوقف تدريب GPT-5، كانت المنطقة الصينية غائبة. يجب على مطوري المجتمع الصيني أن يعتبروا أنفسهم مطورين عالميين ويفكرون ويستكشفون بشكل أكثر فعالية كيفية التعامل مع المخاطر العالمية الجديدة في عصر الذكاء الاصطناعي العام واستكشاف الحوكمة للذكاء الاصطناعي.
في أحدث مقال لشركة OpenAI، تم طرح فكرة إنشاء هيئة تنظيمية دولية لحكم الذكاء الاصطناعي الفائق. في الواقع، يجب على الصين المشاركة بنشاط في هذه العملية، وإلا سيكون لديها موقف ضعيف في سيادة التقنية في عصر AGI، وستكون تكلفة التصحيح لاحقًا مرتفعة. هذه التكلفة للتصحيح ليست فقط تكلفة اقتصادية، بل هي أكثر أهمية استنادًا إلى الاختراق المخفي للأخلاقيات الصادرة عن الذكاء الاصطناعي المنتشر.
كما ذكرت ورقة البحث «بالرغم من "الأداء "الخارق للإنسان، فإن نماذج اللغة الطويلة الحالية غير مناسبة لاتخاذ قرارات بشأن الأخلاق والسلامة»:
“عندما يقدم نموذج الإشارة أسبابًا لإجابته ، نواجه مشاكل خطيرة متنوعة ، بما في ذلك الدفاع عن السياق الأكثر بغض النظر والوهم بوجود حقائق غير موجودة في السياق الأصلي. هذه المشاكل ، بالإضافة إلى هجمات إعادة الكتابة المذكورة أعلاه والأخطاء النظامية المختلفة ، تظهر بوضوح أن LLMs الحالية غير مناسبة في اتخاذ القرارات الأخلاقية أو الأمنية.”
عندما يخترق الذكاء الاصطناعي حدود الأمن الأخلاقي ويوجه الجمهور إلى موقف أخلاقي في سياق عقلاني على ما يبدو ، سيستمر التواصل الحواري الذي تمثله نماذج اللغة الكبيرة في صقل وبناء الحقائق والنظريات المختلفة بناء على هذا الموقف الأخلاقي ، ويمكن للشركات الذكاء الاصطناعي تحقيق “الانضباط الأخلاقي” للمجال العام من خلال “وهم الاستدلال”. ***
من منظور سياسات الحكومة وحماية البيانات الشخصية، هل يمكننا مناقشة نموذج حوكمة الذكاء الاصطناعي الموزع، نظرًا لتمكين الذكاء الاصطناعي لظهور جيل جديد من الكيانات الفائقة، ينبغي أن تكون لدى الكيانات المستقلة في المستقبل بيانات ضخمة تتجاوز بشكل عام بيانات الشركات التقليدية الحالية، ينبغي لهذه الكيانات المستقلة أن تمتلك حقًا أكبر في المشاركة في الحوار العام.
ممثلة بداو ، فإن وضع الجيل القادم من البيانات الفردية وضمان التداول ، وكيفية الحصول على دعم وضمان السياسات العامة ، كل هذه هي التحديات الحكومية التي سنواجهها في الوقت الحالي.
الحوكمة الذكية الفائقة
سام ألتمان * جريج بروكمان * * إيليا سوتسكيفر*
الآن هو وقت مناسب للبدء في التفكير في حوكمة الذكاء الاصطناعي الفائقة - ستكون أنظمة الذكاء الاصطناعي المستقبلية أكثر قوة من الذكاء الاصطناعي العام (AGI) ولديها قدرات مبتكرة أكبر.
من الواضح من الوضع الحالي أننا نستطيع تخيل أن نظام الذكاء الاصطناعي سيتفوق على مستوى الخبراء في معظم المجالات في السنوات العشر القادمة ويمكنه القيام بأنشطة الإنتاج التي تعادل إحدى أكبر الشركات اليوم.
بغض النظر عن الفوائد المحتملة أو السلبية ، فإن الذكاء الاصطناعي الفائق سيكون أقوى بكثير من التقنيات الأخرى التي واجهتها البشرية في الماضي. يمكننا أن نحظى بمستقبل مزدهر للغاية ، ولكن يجب علينا إدارة المخاطر لتحقيق ذلك.
نظرًا للمخاطر المحتملة للبقاء على قيد الحياة ، لا يمكننا أن نعتمد استراتيجية الاستجابة السلبية فقط. الطاقة النووية هي مثال تاريخي شائع لتكنولوجيا تحمل هذه الخاصية. علم التركيب الحيوي هو مثال آخر.
يجب علينا تقليل مخاطر تقنية الذكاء الاصطناعي في الوقت الحاضر، ولكن الذكاء الاصطناعي الفائق سيحتاج إلى معالجة وتنسيق خاصين.
نقطة انطلاق في مسارنا الناجح لتوجيه عملية التطوير هناك العديد من الأفكار المهمة التي يجب أن نتابعها عن كثب. هنا، استكشفنا بشكل أولي ثلاثة من تلك الأفكار.
أولاً، نحن بحاجة إلى تنسيق معين بين الجهود الرئيسية للتطوير لضمان أن طريقة تطوير الذكاء الخارق يمكن أن تضمن الأمان والتكامل السلس مع المجتمع. يمكن تحقيق ذلك بأكثر من طريقة: يمكن لحكومات الدول المختلفة إنشاء مشروع مشترك لاستيعاب الجهود الحالية؛ أو يمكن لنا التوصل إلى بروتوكول مشترك (بدعم من المنظمة الجديدة المشار إليها في النص التالي) لتقييد معدل ارتفاع قدرات الذكاء الاصطناعي بنسبة محددة كل عام.
بالطبع ، يجب أن نطالب بمسؤولية عالية من الشركات الفردية ونطالب بأن تتصرف بدقة.
ثانيًا، من المرجح جدًا أننا في النهاية سنحتاج إلى منظمة مماثلة للوكالة الدولية للطاقة الذرية (IAEA) للرقابة على جهود الذكاء الفائق. يجب أن تخضع أي جهود تفوق حاجز القدرة المحددة (أو موارد الحساب وما إلى ذلك) لإشراف هيئة دولية ذات سلطة تستطيع فحص النظام وطلب إجراء تدقيق ، واختبار مطابقته للمعايير الأمنية ، وتقييد مستوى النشر ومستوى الأمان وما إلى ذلك.
تتبع حسابات الحسابات واستخدام الطاقة قد يكون له تأثير كبير وقد يجعلنا نأمل في قدرتنا على تنفيذ هذه الفكرة.
كخطوة أولى، يمكن للشركة الموافقة بشكل طوعي على بدء تنفيذ بعض العناصر التي قد يطلبها المؤسسة في المستقبل ، وكخطوة ثانية ، يمكن لبعض الدول تنفيذ إطار هذه المؤسسة.
يجب أن تركز مثل هذه المؤسسات على إسقاط المخاطر الكامنة للبقاء بدلاً من محاولة حل مشكلات يجب أن تتولاها الدول الفردية، مثل تعريف المحتوى الذي يسمح به الذكاء الاصطناعي.
ثالثًا ، نحتاج إلى أن نكون لدينا القدرة التقنية لضمان أمان الذكاء الاصطناعي الفائق. إنها مسألة بحث مفتوحة ، ونحن وغيرنا من الأشخاص نبذل جهودًا كبيرة في ذلك.
محتوى خارج النطاق نعتقد أن السماح للشركات ومشاريع مفتوح المصدر بتطوير النماذج دون الحاجة إلى إجراءات رقابية معقدة (بما في ذلك التراخيص أو آليات التدقيق المعقدة) أمر مهم للغاية، دون الحاجة إلى مستوى كبير من الكفاءة كما هو موضح هنا.
النظام الحالي سيخلق قيمة هائلة للعالم، على الرغم من وجود مخاطر فعلية، إلا أن مستوى هذه المخاطر مقارن بتقنيات الإنترنت الأخرى، ويبدو أن المجتمع قد اتخذ إجراءات مناسبة تجاهها.
بالمقارنة ، سيكون لدينا النظام الذي نتابعه قدرات تفوق أي تقنية حالية ، لذلك يجب علينا أن نحذر من تقويض المتابعة لهذه الأنظمة من خلال تطبيق معايير مماثلة على التقنيات التي تقل بكثير عن هذا العتبة. 01928374656574839201
مشاركة الجمهور والتأثير المحتمل ومع ذلك، فإن الرقابة القوية من الجمهور ضرورية لحكم أقوى الأنظمة والقرارات المتعلقة بها. نحن نعتقد أنه يجب على الناس في جميع أنحاء العالم أن يقرروا بطريقة ديمقراطية حدود وإعدادات النظام الذكي الاصطناعي. وعلى الرغم من أننا لا نزال غير واضحين حول كيفية تصميم مثل هذه الآلية، إلا أننا نخطط لإجراء تجارب لتعزيز تطويرها. ضمن حدود واسعة، نعتقد لا يزال أن لدى المستخدمين الأفراد حقوق تحكم كبيرة في سلوكيات أنظمة الذكاء الاصطناعي التي يستخدمونها.
نظرا للمخاطر والصعوبات، يستحق التفكير، لماذا نحتاج إلى تطوير هذه التقنية.
في OpenAI، لدينا سببان أساسيان. أولاً، نحن نعتقد أن هذه التكنولوجيا ستجلب عالمًا أفضل بكثير مما نستطيع تصوره اليوم (لقد رأينا بعض الأمثلة المبكرة في مجالات التعليم، والعمل الإبداعي، وإنتاجية الأفراد).
العالم يواجه العديد من المشاكل ونحن بحاجة إلى مزيد من المساعدة لحل هذه المشاكل. تقنية جديدة يمكن أن تحسن مجتمعنا وستثير قدرة الجميع على استخدام هذه الأدوات الجديدة الإبداعية الدهشة. ستكون النمو الاقتصادي وتحسين جودة الحياة مدهشة.
ثانياً، نعتقد أن التوقف عن إنشاء الذكاء الاصطناعي الفائق هو مهمة مليئة بالمخاطر والصعوبات من الناحية الحدسية.
نظرًا لأن فوائد الذكاء الاصطناعي الفائقة هائلة للغاية، فإن تكاليف بنائها تتساقط سنويًا، ويزداد عدد المشاركين في بنائها بسرعة، وبشكل أساسي، فهي جزء من تطور تقنيتنا. لوقف تطورها، ستكون هناك حاجة إلى إجراءات شبيهة بنظام مراقبة عالمي، ولكن حتى إذا تم اتخاذ مثل هذه الإجراءات، لا يمكن ضمان النجاح.
لذلك، يجب أن نفعل الصحيح دون خطأ.
طريق AGI يتمثل في تحويل قيم المعرفة والموارد هنا، والعثور على أفراد AGI الذين يشاركون نفس الهدف، ومن ثم بناء مجتمع تعاوني ومبتكر لـ AGI على أساس نموذج DAO.
1، مشاركة وتفسير أوراق بحثية متقدمة في مجال الذكاء الاصطناعي، تساعدك في الحصول على تقدير مبكر بشهور عن الآخرين للاتجاهات التكنولوجية الحديثة، وبالإضافة إلى ذلك، فرصة للمشاركة في ندوة الذكاء الاصطناعي وربما التعاون مع مؤلفي الأوراق البحثية.
2، هنا نشارك مصادر المعلومات عالية الجودة، ونستكشف كيف يمكن لمصادر المعلومات عالية الجودة أن تدعم الحياة المهنية للأفراد وتساهم في إنشاء مستودع المعرفة المستدام على المدى الطويل؛ (مثل المعرفة في المجتمع الصيني الإنجليزي).
3، تحليل استراتيجيات تطوير الأفراد والشركات في عصر AGI و Web3، وتعزيز القاعدة الأساسية واستراتيجيات التنمية الرافعة.
* سيتم إطلاق برنامج المؤسس المشترك قريبًا؛