《وول ستريت جورنال》 نشرت المراسلة Keach Hagey تحقيقًا مطولًا يكشف عن عداوة شخصية خاصة استمرت عشر سنوات بين المؤسسَين في Anthropic، Dario Amodei، والرئيس التنفيذي لـ OpenAI، Sam Altman. تستند هذه المادة إلى المقال الذي كتبه Keach Hagey بعنوان《The Decadelong Feud Shaping the Future of AI》، وقام BlockBeats بتحريره وترجمته.
(ملخص سابق: 360 تشو هونغيي: إن الرمز المميز إلى الأبد لن يمكن أن يكون مثل تدفّق بيانات الهاتف «غير محدود»، والذكاء الاصطناعي لن يصبح إلا أغلى كلما تم استخدامه أكثر)
(معلومات إضافية عن السياق: «مخاطر الذكاء الاصطناعي على الديمقراطية والمجتمع البشري»: ورقة بحثية ثقيلة الوزن أُعلن عنها بالشراكة بين أب الذكاء الاصطناعي Yoshua Bengio و25 باحثًا آخرين، من بينهم تانغ فيونغ وآخرون)
نشرت 《وول ستريت جورنال》 تقرير تحقيق مطول للمراسلة Keach Hagey، حيث قامت لأول مرة بالكشف بشكل منهجي عن العداوة الشخصية التي استمرت عشر سنوات بين مؤسسي Anthropic وOpenAI، وذلك عبر إجراء كمّ كبير من المقابلات مع أشخاص قريبين من موظفين ومسؤولين تنفيذيين حاليين وسابقين في الشركتين. إن تشكيل ملامح المشهد العالمي للذكاء الاصطناعي لم يكن مجرد صراع حول المسارات التقنية؛ بل كان أيضًا أمرًا يتعلق بجُرحٍ خاص لم يلتئم أبدًا.
خلال الأشهر القليلة الماضية، كانت صياغات Dario Amodei داخل الشركة أشد حدّة بكثير مما كان يُقال في الأماكن العامة. فقد شبّه النزاع القانوني بين Sam Altman وElon Musk بـ «هتلر مقابل ستالين»، واصفًا تبرّع Greg Brockman، رئيس OpenAI، بمبلغ 2500 مليون دولار للجنة العمل السياسي الفائقة المؤيدة لـ تشونغ (pro-Trump) بأنه «شرير» (evil). كما شبّه OpenAI والمنافسين الآخرين بـ «شركات التبغ التي تبيع منتجات مع العلم بأنها مؤذية».
بعد تصاعد الخلاف في البنتاغون، كان يصف OpenAI على Slack بأنه «مراوغ» (mendacious)، وكتب: «هذه الحقائق تُظهر نمطًا سلوكيًا اعتدت أن أراه كثيرًا في Sam Altman».
داخل Anthropic، تُسمّى هذه الاستراتيجية لبناء العلامة التجارية «بديلًا صحيًا» (healthy alternative) لمنافسَيه. وخلال فترة Super Bowl هذا العام، كان هناك إعلان ساخر لم يُسمِّ OpenAI صراحةً عن إدراج إعلانات داخل روبوتات الدردشة، وهو ما يُعد نتاجًا مُعلَنًا لهذه الاستراتيجية.
تبدأ القصة في نقطةٍ ما: صالة شقة مُستأجرة مشتركة في شارع Delano في سان فرانسيسكو عام 2016. كان Dario يسكن هنا مع شقيقته Daniela Amodei، وكانت تتردد عليه أحيانًا شدة حضور Brockman، الشريك المؤسس في OpenAI، نظرًا لعلاقته الخاصة بـ Daniela. وفي أحد الأيام، كان Brockman وDario وDaniela يجلسون معًا للجدال حول المسار الصحيح لتطوير الذكاء الاصطناعي، إلى جانب خطيب Daniela آنذاك، وهو فاعل خير من دعاة الإيثار الفعّال Holden Karnofsky: كان Brockman يرى ضرورة إبلاغ جميع الأمريكيين بما يجري في طليعة الذكاء الاصطناعي، بينما رأى Dario وKarnofsky أن المعلومات الحساسة يجب أولًا أن تُبلَّغ للحكومة بدل بثّها إلى الجمهور. أصبحت هذه الخلافات لاحقًا نقطة التحول الفاصلة بين مساري الفلسفة لدى الشركتين.
بعد أن تأثر Dario بحشد المواهب لدى OpenAI، انضم في منتصف 2016، ورافق Brockman في السهر لتدريب وكلاء ذكاء اصطناعي مع لعب ألعاب إلكترونية. لكن بعد أربع سنوات من العمل معًا، تعمّقت التناقضات باستمرار حول السلطة والشعور بالانتماء. في 2017، عندما طلب Musk، باعتباره أحد كبار الممولين الرئيسيين لدى OpenAI آنذاك، إدراج إسهام كل موظف ثم إجراء تسريح وفقًا لذلك، أُقصي ما بين 10% و20% من فريق يضم نحو 60 شخصًا واحدًا تلو الآخر. اعتبر Dario ذلك قاسيًا، وفي من تم تسريحهم كان هناك شخص أصبح لاحقًا أحد المؤسسين المشاركين لـ Anthropic.
وفي العام نفسه، اقترح مستشار أخلاقي تم تعيينه بواسطة Dario أن تقوم OpenAI بدور «كيان تنسيقي» بين شركات الذكاء الاصطناعي والحكومة. ومن هذا استنتج Brockman فكرة «بيع AGI للدول النووية الكبرى في مجلس الأمن التابعة للأمم المتحدة». رأى Dario أن ذلك يعد شبه خيانة، وجرى أن فكر في تقديم استقالته.
بعد انسحاب Musk في 2018، تسلّم Altman زمام القيادة. وتوصلا إلى توافق: كان لدى الموظفين افتقار للثقة في قيادة Brockman والعالمات/العالم الرئيسي Ilya Sutskever. بقي Dario بشرط أن يتوقف الاثنان عن كونهما مشرفين، لكنه اكتشف بسرعة أن Altman وعد كليهما أيضًا بأنهما يملكان الحق في إقالة نفسيهما؛ ووعودُهما كان بعضها يناقض بعضًا.
مع بدء تطوير سلسلة GPT، اندلعت أشدّ المواجهات بين المدراء حول من يمكنه المشاركة في مشروع نماذج اللغة. ومنصب المدير البحثي في ذلك الوقت، Dario، لم يسمح لـ Brockman بالتدخل، وفي الوقت نفسه كان يتشارك قيادة المشروع مع Daniela، التي كان عليها أن تستقيل من منصبها لتكون ورقة ضغط، إلا أن الرغبة الشخصية لـ Radford جرى جرّها إلى حرب بالوكالة بين المدراء.
ارتفع رصيد Dario مع نجاح GPT-2 وGPT-3، لكنّه شعر بأن Altman يُخفف من قيمة إسهامه. عندما تحدث Brockman في بودكاست حول النظام الأساسي لـ OpenAI، غضب Dario لأنه لم يُدعَ رغم أنه كان مساهمته أكبر في النظام الأساسي. وعندما علم أن Brockman وAltman ذاهبان للقاء الرئيس السابق Obama، شعر أيضًا بعدم الرضا لأنه استُبعد من الرحلة.
بلغت التناقضات ذروتها في مواجهة داخل غرفة اجتماعات. استدعى Altman أشقاء Amodei إلى غرفة الاجتماعات ووجّه إليهم اتهامًا بأنهما يشجعان الزملاء على تقديم تعليقات سلبية عنه إلى مجلس الإدارة. نفى الاثنان ذلك. قال Altman إن الرسالة جاءت من مسؤول تنفيذي آخر، وفي اللحظة نفسها طلبت Daniela من ذلك المسؤول التنفيذي الحضور للمواجهة، فقال إنه لم يكن على علم مطلقًا بالأمر.
ثم سرعان ما نفى Altman أنه قال تلك الكلمات، واندلعت مشادة كلامية شرسة بين الطرفين. في بداية 2020، طلب Altman من المدراء أن يكتبوا تقييمات متبادلة وخاضعة لمراجعة الأقران، وكتب Brockman ردًا شديد اللهجة يتهم Daniela بإساءة استخدام السلطة واستبعاد الخصوم عبر الإجراءات البيروقراطية، بينما قيّم Altman مسبقًا تقييمًا على أنه «قاسٍ لكنه عادل» (tough but fair). دحضت Daniela الرد نقطةً بنقطة، وارتفع مستوى الجدل حتى اقترح Brockman في مرحلة ما سحب التعليق.
بحلول نهاية 2020، قررت مجموعة بقيادة Dario الخروج، حيث قامت Daniela بإدارة مفاوضات مع المحامين بشأن إنهاء الخدمة. حضر Altman بنفسه إلى منزل Dario لمحاولة إقناعه بالبقاء، لكن طرح Dario شرطًا يتمثل في أنه لن يقبل إلا أن يكون تقريره مباشرة إلى مجلس الإدارة، كما أنه أوضح صراحةً أنه لا يمكنه العمل مع Brockman. قبل مغادرته، كتب مذكرة طويلة، قسم فيها شركات الذكاء الاصطناعي إلى نوعين: «سوقية» و«ذات منفعة عامة». ورأى أن النسبة المثالية هي 75% منفعة عامة و25% سوق. وبعد أسابيع، غادر Dario وDaniela وما يقرب من اثني عشر موظفًا OpenAI، وأنشأوا Anthropic.
واليوم، بعد خمس سنوات، تجاوزت تقييمات الشركتين الثلاثين مليار دولار، ويأملان السباق إلى ما قبل IPO. في الصورة الجماعية الختامية لقمة AI في نيودلهي في فبراير هذا العام، كان رئيس الوزراء الهندي مودي وقادة التكنولوجيا الحاضرون يرفعون أيديهم معًا، بينما اختار Amodei وAltman عدم المشاركة، واكتفيا بمواجهة محرجة حين اصطدمت مرفقيهما فقط.