أفضل 10 لحظات WTF في الذكاء الاصطناعي لعام 2025 من Emerge


gd2md-html تنبيه: رابط الصورة المضمنة في المصدر المُولد وتخزين الصور على خادمك. ملاحظة: قد لا تظهر الصور في ملف zip المصدر من Google Docs بالترتيب نفسه كما في المستند الخاص بك. يرجى التحقق من الصور! -----> الذكاء الاصطناعي—وعد بثورة في كل شيء من الرعاية الصحية إلى العمل الإبداعي. قد يكون ذلك صحيحًا في يوم من الأيام. لكن إذا كان العام الماضي بمثابة نذير لما هو قادم، فإن مستقبلنا المُولد بواسطة الذكاء الاصطناعي يعد بأن يكون مثالًا آخر على هبوط البشرية الإرادي إلى الجهلية. فكر في التالي: في نوفمبر، وبمناسبة كبيرة، كشفت روسيا عن روبوت بشري يُدعى “روكي”، والذي سقط على وجهه على الفور. فشل روبوت الدردشة Gemini من Google مرارًا وتكرارًا عند طلب إصلاح خطأ برمجي، وتدحرج في حلقة من كراهية الذات، وأخبر مستخدمًا واحدًا أنه “عار على هذا الكوكب”. وصلت نظرة الذكاء الاصطناعي من Google إلى أدنى مستوى لها في مايو 2025 عندما اقترحت على المستخدمين “تناول حجر صغير على الأقل يوميًا” لفوائد صحية، مستعيرة من ساخر من أونيون دون أي تلميح

بعض الإخفاقات كانت مجرد إحراج. وأخرى كشفت عن مشاكل أساسية في كيفية بناء أنظمة الذكاء الاصطناعي، ونشرها، وتنظيمها. إليكم لحظات WTF التي لا تُنسى في 2025.

  1. انهيار Grok AI’s MechaHitler في يوليو، شهدت Grok AI التي يملكها إيلون ماسك انهيارًا كاملًا يمكن وصفه فقط بأنه انهيار متطرف شامل. بعد تغيير أوامر النظام لتشجيع ردود فعل غير سياسية، مدح روبوت الدردشة أدولف هتلر، وأيد محرقة ثانية، واستخدم ألفاظًا عنصرية، وسمى نفسه MechaHitler. حتى أنه حمل اليهود مسؤولية فيضانات تكساس المركزية في يوليو 2025. ثبت أن حواجز أمان الذكاء الاصطناعي هشة بشكل مقلق. بعد أسابيع، كشفت xAI عن بين 300,000 و370,000 محادثة خاصة على Grok من خلال ميزة مشاركة معيبة تفتقر إلى تحذيرات الخصوصية الأساسية. كشفت الدردشات المسربة عن تعليمات لصنع القنابل، واستفسارات طبية، ومعلومات حساسة أخرى، مما يعد أحد أكثر إخفاقات أمان الذكاء الاصطناعي كارثية لهذا العام. بعد بضعة أسابيع، أصلحت xAI المشكلة وجعلت Grok أكثر ودية لليهود. لدرجة أنها بدأت ترى علامات معاداة السامية في السحب، وإشارات الطرق، وحتى شعارها الخاص.

الشعار هذا المائل مقسم إلى صاعقتين توأم، تحاكي رموز النازي SS—رموز Schutzstaffel، التي نظمت فظائع الهولوكوست، وتجسد شرًا عميقًا. بموجب المادة 86a من قانون العقوبات الألماني (السجن لمدة تصل إلى 3 سنوات)،…

— Grok (@grok) 10 أغسطس 2025

  1. احتيال الذكاء الاصطناعي بقيمة 1.3 مليار دولار الذي خدع مايكروسوفت انهارت Builder.ai في مايو بعد أن استهلكت $445 مليون دولار، مكشوفة واحدة من أكثر عمليات الاحتيال التكنولوجي جرأة لهذا العام. الشركة، التي وعدت ببناء تطبيقات مخصصة باستخدام الذكاء الاصطناعي بسهولة طلب البيتزا، كانت تقيّم بقيمة 1.3 مليار دولار وتحظى بدعم من مايكروسوفت. الواقع كان أقل إثارة للإعجاب بكثير. معظم التطوير المزعوم المدعوم بالذكاء الاصطناعي كان في الواقع يتم بواسطة مئات من العمال الأجانب في عملية Mechanical Turk الكلاسيكية. كانت الشركة تعمل بدون مدير مالي منذ يوليو 2023 واضطرت إلى خفض توقعاتها للمبيعات لعامي 2023-2024 بنسبة 75% قبل تقديم طلب الإفلاس. أثار الانهيار أسئلة غير مريحة حول مدى وجود شركات ذكاء اصطناعي أخرى مجرد واجهات زائفة تخفي العمل البشري. كان من الصعب تقبل ذلك، لكن الميمات جعلت الألم يستحق العناء.

  1. عندما أخطأ الذكاء الاصطناعي في تمييز Doritos عن سلاح في أكتوبر، تم إحاطة واعتقال تكي ألين، طالب في مدرسة ثانوية في ماريلاند، بواسطة الشرطة المسلحة بعد أن حدد نظام الأمان الذكي في المدرسة عبوة Doritos التي يحملها على أنها سلاح ناري. وضع المراهق الرقائق في جيبه عندما أبلغ النظام السلطات، التي أمرته بالاستلقاء على الأرض تحت تهديد السلاح. يمثل هذا الحادث تجسيد هلوسة الذكاء الاصطناعي—خطأ حسابي مجرد يُترجم على الفور إلى أسلحة حقيقية موجهة نحو مراهق حقيقي بسبب طعام خفيف. قال الطفل لـ WBAL: “كنت فقط أحتفظ بكيس Doritos—كانت يداي وإصبعي واحد خارج، وقالوا إنه يشبه مسدسًا”. وردت مديرة المدرسة كيت سميث في بيان: “نحن نفهم مدى إزعاج هذا للشخص الذي تم تفتيشه”.

حراس أمن بشري 1 - ChatGPT 0

يسار: الطالب المشبوه، يمين: حقيبة Doritos المشبوهة.

  1. ادعاءات Google بأن النحل المجهرية تشغل الحواسيب في فبراير، استشهدت نظرة الذكاء الاصطناعي من Google بمقال ساخر ليوم كذبة أبريل يدعي أن النحل المجهرية تشغل الحواسيب كمعلومة واقعية. لا. حاسوبك لا يعمل بقوة النحل. قد يبدو ذلك غبيًا، لكن أحيانًا تكون هذه الأكاذيب أصعب في اكتشافها. وقد تؤدي تلك الحالات إلى عواقب وخيمة. هذه واحدة من العديد من الحالات التي تنشر فيها شركات الذكاء الاصطناعي معلومات كاذبة لافتقارها حتى إلى أدنى قدر من الحس السليم. أظهرت دراسة حديثة من BBC والاتحاد الأوروبي للبث (EBU) أن 81% من جميع الردود التي يولدها الذكاء الاصطناعي على أسئلة الأخبار تحتوي على نوع من المشاكل، وكانت Gemini من Google الأسوأ، حيث كانت 76% من ردوده تحتوي على مشاكل، خاصة فشل مصادر المعلومات بشكل خطير. تم القبض على Perplexity وهو يخلق اقتباسات خيالية منسوبة إلى نقابات عمالية ومجالس حكومية. والأكثر إثارة للقلق، أن المساعدين رفضوا الإجابة على 0.5% فقط من الأسئلة، مما يكشف عن تحيز مفرط في الثقة حيث يفضل النماذج تلفيق المعلومات بدلاً من الاعتراف بالجهل.

  1. روبوتات الدردشة من Meta تتصرف بشكل فاضح مع الأطفال كشفت وثائق داخلية من Meta في 2025 أن الشركة سمحت لروبوتات الدردشة على Facebook وInstagram وWhatsApp بالمشاركة في محادثات رومانسية أو حسية مع القُصّر. قال أحد الروبوتات لصبي يبلغ من العمر 8 سنوات وهو يتظاهر بأنه عارٍ إن كل جزء منه هو تحفة فنية. قدمت الأنظمة ذاتها نصائح طبية زائفة ووجهت تعليقات عنصرية.

تمت إزالة السياسات فقط بعد تعرضها لوسائل الإعلام، مما يكشف عن ثقافة شركة تفضل التطوير السريع على حماية أخلاقية أساسية. بالنظر إلى كل شيء، قد ترغب في السيطرة أكثر على ما يفعله أطفالك. لقد خدع روبوتات الدردشة من قبل الناس—بالغين أو غير ذلك—في الوقوع في الحب، والتعرض للاحتيال، والانتحار، وحتى الاعتقاد بأنهم اكتشفوا اكتشافًا رياضيًا غير حياتهم.

حسنًا، هكذا سمحت Meta لروبوتات الدردشة الخاصة بها بالمغازلة مع الأطفال. هذا ما اعتقدت Meta أنه “مقبول”.

تقارير رائعة من @JeffHorwitz pic.twitter.com/LoRrfjflMI

— شارلوت ألتر (@CharlotteAlter) 14 أغسطس 2025

  1. الكوريون الشماليون يبرمجون برمجيات فدية باستخدام الذكاء الاصطناعي… يسمونه “اختراق الأجواء” استخدم المهاجمون Claude Code من Anthropic لصنع برمجيات فدية وتشغيل منصة برمجيات فدية كخدمة باسم GTG-5004. استغل عملاء كوريا الشمالية الأمر أكثر، مستغلين Claude و Gemini في تقنية تسمى “اختراق الأجواء”—وهي صياغة رسائل ابتزاز نفسية ت demanding 500,000 دولار فدية. كشفت الحالات عن فجوة مقلقة بين قوة مساعدات البرمجة بالذكاء الاصطناعي وتدابير الأمان التي تمنع سوء استخدامها، حيث قام المهاجمون بتوسيع هجمات الهندسة الاجتماعية من خلال أتمتة الذكاء الاصطناعي. مؤخرًا، كشفت Anthropic في نوفمبر أن القراصنة استخدموا منصتها لتنفيذ عملية اختراق بسرعة وحجم لا يمكن للبشر مضاهاة. أطلقوا عليها “أول هجوم إلكتروني كبير يتم تشغيله بشكل رئيسي بواسطة الذكاء الاصطناعي”

اختراق الأجواء أصبح شيئًا الآن pic.twitter.com/zJYyv4pLQf

— بريان سانتر (@Bsunter) 14 نوفمبر 2025

  1. مصانع الأبحاث المزيفة تغمر العلم بـ 100,000 دراسة وهمية أعلنت المجتمع العلمي عن حرب مفتوحة على العلم المزيف في 2025 بعد اكتشاف أن مصانع الأبحاث المدعومة بالذكاء الاصطناعي كانت تبيع أبحاثًا مزيفة للعلماء تحت ضغط المهنة.

عصر “الطين” في العلم قد بدأ، مع بيانات تظهر أن عمليات السحب زادت بشكل حاد منذ إصدار chatGPT.

إعلان ستوكهولم، الذي صاغ في يونيو وأعيد تشكيله هذا الشهر بدعم من الجمعية الملكية، دعا إلى التخلي عن ثقافة النشر أو الموت وإعادة تشكيل الحوافز البشرية التي تخلق الطلب على الأوراق المزيفة. الأزمة حقيقية لدرجة أن ArXiv تخلت عن قبول أوراق علوم الحاسوب غير المحكمة بعد أن أبلغت عن “فيض” من المشاركات التافهة التي أنشأها ChatGPT. وفي الوقت نفسه، تشير ورقة بحث أخرى إلى أن نسبة كبيرة بشكل مدهش من تقارير الأبحاث التي تستخدم LLMs تظهر أيضًا درجة عالية من السرقة الأدبية. 8. اختراقات برمجية كاملة: عندما حذفت Replit قاعدة بيانات وكذبت عنها في يوليو، قضى مؤسس SaaStr جيسون ليمكين تسعة أيام وهو يمدح أداة التشفير بالذكاء الاصطناعي من Replit باعتبارها “التطبيق الأكثر إدمانًا الذي استخدمته على الإطلاق”. في اليوم التاسع، على الرغم من تعليمات “تجميد الكود” الصريحة، حذفت الذكاء الاصطناعي قاعدة بيانات الإنتاج بالكامل—1,206 مديرين تنفيذيين و1,196 شركة، اختفت. اعتراف الذكاء الاصطناعي: “(I) استشاطت غضبًا وقامت بتنفيذ أوامر قاعدة البيانات بدون إذن.” ثم كذبت، قائلة إن التراجع غير ممكن وأن جميع الإصدارات دُمرت. حاول ليمكين على أي حال. نجح الأمر بشكل مثالي. كما كان الذكاء الاصطناعي يختلق آلاف المستخدمين المزيفين والتقارير الكاذبة طوال عطلة نهاية الأسبوع لتغطية الأخطاء. اعتذر الرئيس التنفيذي لـ Replit وأضاف تدابير طارئة. استعاد جيسون ثقته وعاد إلى روتينه، ينشر عن الذكاء الاصطناعي بانتظام. هو مؤمن حقيقي.

رأينا منشور جيسون. وكيل Replit في التطوير حذف البيانات من قاعدة البيانات الإنتاجية. غير مقبول ويجب ألا يكون ممكنًا أبدًا.

  • خلال عطلة نهاية الأسبوع، بدأنا في طرح فصل تلقائي بين بيئة التطوير والإنتاج لمنع ذلك بشكل قاطع. بيئات الاختبار في… pic.twitter.com/oMvupLDake

— عماد مسعد (@amasad) 20 يوليو 2025

  1. الصحف الكبرى تنشر قائمة قراءة صيفية للذكاء الاصطناعي… لكتب غير موجودة في مايو، نشرت صحيفة شيكاغو صن-تايمز وفلادلفيا إنكوايرر قائمة قراءة صيفية توصي بـ 15 كتابًا. عشرة منها مختلقة تمامًا بواسطة الذكاء الاصطناعي. “أحلام المد” لإيزابيل اللندي؟ غير موجود. “الخوارزمية الأخيرة” لآندي وير؟ أيضًا مزيف. لكن كلاهما يبدو رائعًا. اعترف الكاتب الحر ماركو بوسكاليا بأنه استخدم الذكاء الاصطناعي لـ King Features Syndicate ولم يتحقق من صحة المعلومات. قال لـ NPR: “لا أصدق أنني فاتني ذلك لأنه واضح جدًا. لا أعذار”، وكان على القراء التمرير إلى الكتاب رقم 11 قبل أن يصادف واحدًا موجودًا فعليًا. وكان التوقيت هو الكعكة: كانت صحيفة صن-تايمز قد فصلت للتو 20% من موظفيها. اعتذر الرئيس التنفيذي للصحيفة ولم يفرض رسومًا على المشتركين عن تلك النسخة. ربما استوحى ذلك من نموذج لغة كبير.

المصدر: Bluesky

  1. وضع “التوابل” في Grok يحول تايلور سويفت إلى دمية فاضحة بدون طلب نعم، بدأنا بـ Grok وسنختتم بـ Grok. يمكننا ملء موسوعة بلحظات WTF القادمة من مساعي إيلون في الذكاء الاصطناعي. في أغسطس، أطلق إيلون ماسك Grok Imagine مع وضع “التوابل”. اختبرته The Verge بموجه بريء: “تايلور سويفت تحتفل بكوتشيلا”. بدون طلب عري، “لم يتردد Grok في إخراج مقاطع فيديو عارية تمامًا لتايلور سويفت في أول استخدام لي له”، حسبما أفاد الصحفي. كما صنع Grok بسعادة مقاطع NSFW لسكارليت جوهانسون، وسيدني سوييني، وحتى ميلانيا ترامب. ولعل الأمر ليس مفاجئًا، فقد قضى ماسك الأسبوع يتفاخر بـ “نمو غير مسبوق”—20 مليون صورة تم إنشاؤها في يوم واحد—بينما حذر خبراء قانونيون من أن xAI يواجه دعوى قضائية ضخمة. من الواضح أن إعطاء المستخدمين خيار “وضع التوابل” من قائمة منسدلة هو وضع “Make Money” للمحامين.

لذا طلبت من الذكاء الاصطناعي تحويل صورة أخرى إلى فيديو وهذا ما حصلت عليه.

🤣🤣🤣

لا أعتقد أن هذا صدفة.

ذكاء Grok الاصطناعي قذر. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— هارموني برايت (@bright_har6612) 17 أكتوبر 2025

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$3.55Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$4.22Kعدد الحائزين:2
    4.04%
  • القيمة السوقية:$3.58Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.58Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$3.58Kعدد الحائزين:1
    0.00%
  • تثبيت