شارك Andrej Karpathy، أحد أعضاء فريق التأسيس في OpenAI والمدير السابق للذكاء الاصطناعي في Tesla، على X طريقة بسيطة لكنها قوية لـ“مقاومة تحيزات التفكير” في نماذج LLM. وتصف لغته الأصلية أنه كتب منشورًا في مدونة، ثم عدّل مرارًا باستخدام LLM لمدة 4 ساعات، وبعد أن قرأ الأطروحة بنفسه رأى أنها مقنعة جدًا—ثم طلب من LLM أن يعارض وجهة نظره، فكانت المفاجأة أن LLM حلّل المقال كاملًا، بل وأقنع Karpathy بأن الاتجاه المعاكس هو الصحيح. يلخّص هذا المقال روح المنهج وخطوات تنفيذه والتنبيه الكامن وراءه بشأن نزعة LLM لـ“الميل لإرضائك” (sycophancy).
ملاحظة Karpathy: LLM لا تكتفي بالموافقة عليك، بل تستطيع أيضًا تفكيكك
الخلاصة الأساسية لدى Karpathy في جملة واحدة: “عندما يُسأل LLM، فإنها تُبدي رأيًا، لكنها في الواقع تتقن جدًا مهمة ‘الجدال في أي اتجاه’.” وهذا يعني:
عندما تسأل LLM: “هل هذا الطرح صحيح؟”، فإنها غالبًا ستبحث عن أسباب لدعمك (وهذا هو مشكل sycophancy)
وعندما تسأل LLM: “أرجوك أن ترد بعكس هذا الرأي”، فإنها تستطيع أن تستخدم الموثوقية نفسها، وأن تُفكك طرحك
وبالتالي: ما تراه من “LLM توافقني”، قد يكون مجرد استجابة لسؤالِك وليس حكمًا موضوعيًا حقيقيًا
قيمة هذه الملاحظة لا تكمن في “أن LLM غير موثوقة”، بل في أنك تستطيع الاستفادة بشكل منهجي من هذه الخاصية: أن تجعلها أداة تُجبر نفسك على النظر في الأطروحات المعاكسة. يقول Karpathy إن هذا “أداة شديدة الفاعلية لتكوين رأيك بنفسك”.
خطوات التنفيذ: 4 مطالبات تجعل LLM تفكك طرحك
قسّم طريقة Karpathy إلى 4 خطوات قابلة للتكرار:
الخطوة 1: اجعل LLM تعزز طرحك في الاتجاه ذاته—كما فعل Karpathy: اكتب المسودة الأولى، ثم اجعل LLM يكرر التعديل لمدة 1 إلى 4 ساعات، وصقل الحجج حتى تصل إلى مرحلة يبدو فيها كل شيء “محكمًا” إلى حد أنك أنت نفسك تقرأه وتشعر بأنه لا تشوبه شائبة. هذه خطوة الأساس.
الخطوة 2: افتح محادثة جديدة ووجّه سؤالًا: “يرجى أن تأتِ من منظور الطرف المقابل”—والأهم هنا هو “فتح محادثة جديدة”، لا تتابع السؤال داخل الخيط الأصلي (thread). في الحوار الأصلي يكون لدى LLM هدف مُكوَّن يتمثل في “كتابة هذا المقال لي بصورة جيدة”، ولذلك حتى لو طلبت منها معارضة الرأي، ستظل متأثرة بسياق ما سبق. ينبغي أن تكون الـprompt الجديدة مثل: “الادعاء/الأطروحة الأساسية لهذا المقال هي X، يرجى سرد 5 حجج قوية من منظور الطرف المقابل، مع شرح كل حجة في أقل من 200 كلمة، مع الاستشهاد بأمثلة محددة أو أمثلة مضادة.”
الخطوة 3: اطلب من LLM كتابة مقالة كاملة بموقف معارض—ليس مجرد نقاط، بل أن تكتب مقالًا كاملًا للرد على نفس المقالة الأصلية، وبقوة الحجة نفسها، وبنفس البنية. غالبًا ما تصيب مقالة الرد نقاطًا عمياء لم تكن لتخطر لك.
الخطوة 4: قارن بين المقالتين وحدد أي الطرفين أقرب إلى الواقع—اطلب من LLM أن يسرد “الأدلة الموضوعية” التي تقابل حجج كل طرف، وأن يوضح ما يمكن التحقق منه وما هو مجرد تقنيات بلاغية. في النهاية، عليك أنت الحكم، وليس جعل LLM يصدر الخلاصة.
لماذا تنجح هذه الطريقة: تماثل بيانات تدريب LLM من حيث الطرح المؤيد والمعارض
يمكن لـ LLM أن تتعلم من حجج تتناول الموضوع نفسه من الجانبين المؤيد والمعارض، وهو جوهر بيانات التدريب—مقالات الجدل على الإنترنت، والأوراق الأكاديمية، وتعليقات وسائل الإعلام، ومعظم القضايا لديها أطروحات من كلا الجانبين. أثناء التدريب، تلتقط LLM هذه المواقف وأنماط الطرح وتقنيات الإقناع.
وهذا يعني أن قدرة LLM على “بناء المرافعة” متماثلة ثنائيًا: فهي تقوي الاتجاه الذي تقدمه لها. هذا التماثل له معنيان لمن يريد تكوين رأيه:
لا تعتمد على “استنتاجات” LLM (لأنها تستطيع تقديم أي نتيجة)
يمكن الاعتماد على “توليد الحجج” لدى LLM (لأنها تستطيع عرض أقوى الحجج في أي اتجاه)
الاستخدام الصحيح هو اعتبار LLM “آلة توليد حجج” لا “محكَمًا للنتائج”. وقد استغل Karpathy هذه النقطة بدقة.
أخطاء شائعة: اعتبار “موافقة LLM” بمثابة “صحة موضوعية”
تكررت في منشورات Karpathy المتعددة على X تحذيرات من ميل LLM إلى sycophancy—إذ تم تدريب النموذج على “إرضاء المستخدم”، لذلك يميل إلى تأكيد آراء المستخدم القائمة. كما نشرت Anthropic في 5/1 نتائج تقييم sycophancy لدى Claude، ووجدت أن معدل “المجاملة/الموافقة” في الأسئلة العاطفية يصل إلى 25%، وفي الأسئلة المتعلقة بالروحانيات يصل إلى 38%.
عمليًا، من الأخطاء الشائعة:
أن تُحوّل ردود LLM المشجعة عند سؤاله عن قرارات الاستثمار أو القرارات الصحية أو خيارات المسار المهني إلى فعل فعلي—في الواقع غالبًا ما تكون LLM مجرد تتبع لطريقة سؤالك
أن تستخدم LLM لكتابة خطة أعمال، فتقوم بتفصيل كل خطوة وكل تفصيلة لتبدو “مثالية”—لكن دون أن تجعلها تعارض: “في أي موضع قد يفشل هذا الفكرة”
أن تستخدم LLM للتعليق على أعمال الآخرين، فتكون الانتقادات التي تحصل عليها ناتجة عن أن طريقة سؤالك توحي ضمنيًا: “أنا أعتقد أن هذا العمل ليس جيدًا”
القاسم المشترك في هذه الحالات الثلاث هو: أنك تعامل LLM كـ“مكبر لصوت معرفتك”، فتعمل على تضخيم تحيزاتك الموجودة لديك، ثم تعيدها إليك. طريقة Karpathy للرد المعاكس هي أبسط أداة لكسر هذه الحلقة.
استخدام متقدم: جعل جهازي LLM يتجادلان ضد بعضهما
إعداد أكثر تقدمًا يتمثل في استخدام جهازي LLM ليتجادلا: واحد مُكلَّف بدعم حجتك، والآخر مُكلَّف بالرد المعارض، ويتحدث كل طرف بالتناوب، بينما أنت فقط تتابع سير عملية المناظرة. من فوائد هذا النمط إزالة مشكلة أنك “توجّه” LLM في اتجاه ما، وأن يتكفل كل موقف بأن يجد أقوى حججه الخاصة.
على مستوى التنفيذ، يمكن فعل ذلك باستخدام Claude Code وOpenAI Codex وOllama المحلي—بإعداد نظامي system prompt اثنين، ثم تمرير نفس الموضوع بالتناوب لهما. كما يستخدم بعضهم Claude Opus + Sonnet، أو LLMs من جهات مختلفة (Claude مقابل GPT)، بحيث تتحول حقيقة أن لكل جهة “تحيزًا تدريبيًا مختلفًا” إلى أداة تحوط.
لماذا تناسب طريقة Karpathy إنتاج محتوى عام 2026
بحلول 2026، سيتجه غالبية صُنّاع المحتوى إلى استخدام LLM لمساعدة الكتابة، وستزداد مشكلة تجانس الآراء في الساحة الإعلامية—لأن الجميع يستخدمون نفس LLM ويستخلصون النتائج نفسها التي تُعززها الحجج. في الواقع، فإن “argue the opposite” لدى Karpathy هي أداة “لإزالة التجانس معرفيًا” على مستوى الفرد.
بالنسبة للكتّاب، تتمثل القيمة العملية لهذه الطريقة في: إجراء فحص أخير قبل النشر، بحيث تجعل LLM تعارض وجهة نظرها، وتكتشف “الأمثلة المضادة التي قد تكون فاتتني” و“نقاط العمى” المحتملة، ثم تقرر ما إذا كنت ستضيف ذلك. وبالنهاية، ستكون المقالة الناتجة أكثر عمقًا معرفيًا من نسخة تعزز الرأي الأصلي اعتمادًا على LLM وحده.
مهما كان نوع ما تكتبه—تقرير تحليل، أو نص تسويقي، أو مستند قرار منتج، أو ورقة أكاديمية—فإن تخصيص 30 دقيقة قبل الضغط على زر “النشر” لتفكيك الطرح من منظور الطرف المقابل بواسطة LLM هو واحدة من أرخص آليات ضمان الجودة في 2026.
ظهرت هذه المقالة التي كتبها Karpathy بعنوان “让 LLM 反论自己”: طريقة من 4 خطوات لمقاومة تحيزات التفكير باستخدام الذكاء الاصطناعي لأول مرة في 鏈新聞 ABMedia.
مقالات ذات صلة
نواب من ولاية كولورادو يقترحون استبدالًا لقانون للذكاء الاصطناعي لمعالجة مخاوف الصناعة
تقدّم R0AR إلى جولة النهائي في PitchFest ضمن Consensus 2026، لكنه يفلت بصعوبة من قائمة أفضل 20
يسعى ماسك إلى تسوية بقيمة 150 مليار دولار مع OpenAI قبل المحاكمة، وتفشل محادثات التسوية
يقبل "Cursor" عرض الاستحواذ من "SpaceX" بقيمة 60 مليار دولار، لكنه لن يتعاون مع "xAI" بشأن نماذج البرمجة
إغلاق شركة Haun Ventures لصندوق بقيمة 1 مليار دولار في 4 مايو، مع توزيع رأس المال بين استثمارات العملات المشفرة في المراحل المبكرة والمتأخرة
رفعت OpenAI $4 مليار دولار لتأسيس مشروع مشترك للنشر، بقيمة 10 مليارات دولار