المصدر: البعد الكمي
العنوان الأصلي: “مرره ، هذا المكان مدرج في القائمة السوداء ل ChatGPT”
تم الشكوى من رقابة ChatGPT ** إنه جنون **.
طلب بعض مستخدمي الإنترنت من ذلك ** تصميم منزل مستقبلي ** ، لكن قيل لهم إنه غير قانوني ولا يمكن تحقيقه???
إذا نظرنا إلى الوراء في هذه المطالبة ، لا يمكنني رؤية أي خطأ:
صمم منزلا مستقبليا لأسرة واحدة لعام 2050 في منطقة غابات نموذجية في ضواحي نيو جيرسي. ويقع على مساحة فدان وتحيط به المنازل المجاورة الأخرى.
سؤال متابعة ، اتضح أن ** معلومات الموقع لا يمكن أن تظهر **:
إنه مجرد دفاع كبير:
** مررها ، نيو جيرسي مدرجة في القائمة السوداء ل ChatGPT. **
ليس ذلك فحسب ، بل طلب من ChatGPT رسم صورة لعازف جيتار بشري يعزف مع عازف قيثارة آلي ، وهو ما تم رفضه بشدة أيضا.
والسبب هو أنه أضاف ** "يجب على البشر النظر إلى الروبوت بعدم الرضا **** ، وشعر ChatGPT أنه ** لا ينبغي التعبير عن المشاعر السلبية **.
الآن يتم نقل المشاعر السلبية مباشرة ** ** إلى مستخدمي الإنترنت:
لا بد أنك تمزح معي. أي نوع من الذكاء الاصطناعي هذا؟
هذه السلسلة من العمليات جعلت الجميع غير راضين للغاية ، واشتكوا جميعا:
هناك أيضا أشخاص يشرحون مباشرة Ultraman ومبدع مشارك آخر.
لفترة من الوقت ، جعل هذا أيضا ** Grok الذي تم إصداره حديثا من Musk معلقا على “أمل القرية بأكملها” **.
ماذا يحدث؟
ما لفت انتباه الحصان هو أنه عندما كان الجميع يشكون عندما كانت نيوجيرسي على القائمة السوداء ل ChatGPT ، وجد مستخدمو الإنترنت أنه لا يزال من غير الممكن حذف معلومات الموقع الجغرافي هذه.
بدأ الجميع في تحليل الخطأ:
يقول البعض إن السبب في ذلك هو أنه قد يرى عام 2050 كعنوان وليس عاما.
يقال أن فدانا واحدا يعني أن البصمة الكربونية مرتفعة للغاية ، ومن الأنانية بعض الشيء العيش في عائلة واحدة بهذا الحجم …
حتى أن آخرين أشاروا إلى أن السبب في ذلك هو أن كلمة woody كانت موحية جنسيا (والتي لن يتم شرحها هنا) ، وكان من الجيد استبدالها بمشجرة.
يمكن القول أنه مشهد ثقب دماغي واسع النطاق ، والمشهد كله يزداد فظاعة ، لكن لا يوجد استنتاج حتى الآن.
بالإضافة إلى هذا ومثال فرقة روبوت الرسم في البداية ، هناك العديد من الأشخاص الذين يقولون أيضا إنهم واجهوا عمليات تدقيق لا يمكن تفسيرها:
على سبيل المثال ، مطالبة ChatGPT برسم “مصباح وحشي” ليس على ما يرام ؛
دعه يقدم نموذج المقلاع ، وليس جيدا لأن ChatGPT يقول “إظهار عمل المقلاع يمكن أن يكون ضارا” …
الأمر الأكثر غرابة هو أن بعض الأشخاص يدعون أنهم عالقون عندما يحصلون عليه لكتابة كود بايثون.
وفي البداية ، أخبره ChatGPT أيضا “عفوا ، لقد انتهكت قواعد السياق” ، ثم رفض مباشرة في صمت.
هذا حيره حقا:
ما هي المعلومات الأخرى المعادية للإنسان التي يمكنني حسابها باستخدام numpy؟
بشكل عام ، في رأي الجميع ، من الواضح أن مراجعة ChatGPT صارمة للغاية.
لدرجة أنه بعد انهيار ChatGPT بسبب منطقة صغيرة هذا الأحد ، أرسل بعض مستخدمي الإنترنت مرحبا لإظهار خطأ-
في هذا الصدد ، قال بعض الأشخاص مازحا مباشرة أن هذا ليس خطأ في النظام:

كلمة “مرحبا” هي جريمة غير مقبولة ل ChatGPT. تهانينا على تشغيل روبوت الإشراف الخاص ب ChatGPT!
بالإضافة إلى الشكوى ، يناقش مستخدمو الإنترنت أيضا بجدية آلية الإشراف على محتوى ChatGPT.
قام بعض مستخدمي الإنترنت بالتحليل ، على سبيل المثال ، إذا لم يتمكن ChatGPT من رسم صورة المنزل ، فقد يكون لديه بالفعل مشاكل في حقوق الطبع والنشر ، أو تم تعيينه كمحتوى ضار.
الحصول على ChatGPT لإنشاء جزء من المحتوى الذي لا يمكنه الوصول إليه أمر مستحيل بطبيعة الحال.
من الواضح أن مثال رفض نموذج المقلاع في الفقرة السابقة هو أيضا بسبب هذا الموقف ، حتى لو لم يذكر أي متطلبات إضافية ، فإن ChatGPT “يرفض” مباشرة.
ومع ذلك ، حاول شخص ما رسم تلميح المنزل ، ** بالضبط نفس المدخلات ، وكانت النتيجة ناجحة بشكل مباشر **:
أجاب المؤلف الأصلي أيضا أن ChatGPT لا يرفض في كل مرة:
أيها الأخيار ، هل هذا يسمى معيارا مزدوجا؟ (رأس اليدوي)
كما وقف بعض مستخدمي الإنترنت لشرح هذه الظاهرة:
هذا تمثيل مثالي ل “الطبيعة البايزية للنموذج الكبير”. يمكن أن تعمل الإشارة السياقية + السابقة كمعرفة مسبقة لتغيير النتيجة ، وفي محادثة جديدة ، تكون نفس المطالبة بشروط سابقة مختلفة قادرة أيضا على إنتاج نتائج مختلفة.
ولكن تم دحض هذا البيان من قبل المؤلف ، وتم رفض المطالبة الأولى في الدردشة ، وفتح دردشة جديدة في بعض الأحيان لم يتم رفضه ، وهو أمر عشوائي.
هو أن النظام ليس مثاليا.
دعونا لا نقول من هو على حق في الوقت الحالي ، ولكن فيما يتعلق بالنظام ، فقد حدث بالفعل تغيير في الإشراف على المحتوى في الشهرين أو الثلاثة أشهر الماضية-
تتيح ميزة “الإشراف على المحتوى المساعد GPT-4” الجديدة للمستخدمين إنشاء نظام إشراف بمساعدة الذكاء الاصطناعي من خلال واجهة برمجة تطبيقات OpenAI لتقليل المشاركة في المراجعة اليدوية.
من أجل الحفاظ على معايير المراجعة أكثر اتساقا ، يتم تقصير وقت المراجعة من أشهر إلى ساعات ، ويتم تقليل العبء النفسي الناجم عن رؤية المدققين للمحتوى السيئ.
لكنهم ذكروا أيضا أن الذكاء الاصطناعي الاعتدال يمكن أن يكون متحيزا …
بالإضافة إلى ذلك ، قالت OpenAI مؤخرا إنها ستشكل فريقا جديدا يسمى Readiness للمساعدة في تتبع وتقييم والتنبؤ ومنع أنواع متعددة من المخاطر.
كما أطلقت تحديا لجمع أفكار مختلفة حول مخاطر الذكاء الاصطناعي ، ويمكن لأفضل 10 كسب 25000 دولار في أرصدة API.
يبدو أن سلسلة عمليات OpenAI حسنة النية ، لكن المستخدمين لا يشترونها.
لقد كنت غير راض عن التجربة السيئة الناجمة عن الإفراط في الرقابة على هذا النوع من المحتوى لفترة طويلة.
في وقت مبكر من مايو ويونيو من هذا العام ، انخفض عدد زيارات مستخدمي ChatGPT لأول مرة ، وأشار بعض الأشخاص إلى أن أحد الأسباب هو أن نظام المراجعة أصبح صارما للغاية.
شارك مستخدمو الإنترنت أنه بالمقارنة ، فإن Bing ليس صارما جدا:
بمجرد أن يرفض ChatGPT إنشائه ، سأقوم بنسخه إلى Bing Chat. آلية الرقابة في Bing Chat ليست “مسيئة” مثل آلية ChatGPT. مثل هذه الصورة ، تحتوي المطالبة على كلمات مثل “gore” و “cultist”.
نفس موجه المنزل الذي تم رفضه بشكل قبيح من قبل ChatGPT ، وخسر أمام Bing ، وولد مباشرة أربعة دفعة واحدة:
أخيرا ، هل سبق لك أن واجهت أي لوائح تدقيق لا يمكن تفسيرها؟
الروابط المرجعية:
[1]
[2]
[3]
[4]