في 16 أبريل 2026، قدم كو وو-يونغ، باحثًا كبيرًا في معهد تكنولوجيا الأمن الوطني في كوريا الجنوبية (NSTI)، نتائج في المؤتمر الثاني والثلاثين لأمن شبكات المعلومات والاتصالات (NetSec-KR 2026) في سيول، كاشفًا أن الأخبار الزائفة المُولدة بواسطة الذكاء الاصطناعي يمكن إنتاجها بتكلفة وسرعة منخفضتين بشكل ملحوظ. وفقًا لعرض كو، فإن إنشاء أخبار زائفة باستخدام الذكاء الاصطناعي التوليدي يكلف متوسطًا 13 وون ويستغرق 4 ثوانٍ، بينما تتطلب 12 مادة خبر زائفة 155 وون و46 ثانية في المتوسط. شدد كو على أن انتشار التضليل المُولّد بواسطة الذكاء الاصطناعي والتعليقات الخبيثة المصممة للتلاعب بالرأي العام أصبح تهديدًا حاسمًا للمجتمع.
سلّط كو الضوء على أنه مع إساءة استخدام قدرات الذكاء الاصطناعي التوليدي بشكل متزايد، تتمثل أساسية أساليب إساءة الاستخدام في التلاعب بالرأي والمعلومات. وأكد أنه مع انخفاض تكلفة وحجم الأخبار الزائفة والتعليقات الزائفة إلى درجة الصِغر ووفرتها إلى حد كبير، وصل المجتمع إلى مرحلة يصبح فيها التمييز بين الحقيقة والادعاءات الكاذبة شديد الصعوبة للغاية.
وفقًا لتحليل كو، عندما تصبح المعلومات الزائفة منتشرة في كل مكان، يشعر أفراد المجتمع بالإرهاق من التضليل ويبدؤون فقدان الاهتمام بالواقع. تؤدي هذه الظاهرة إلى دفع الناس إلى التشكيك حتى في المعلومات الأصيلة. أشار كو إلى أن “إنفاذ العقوبة على الأخبار الزائفة يصعب قانونيًا تطبيقه ما لم تُفضي إلى مكسب مالي”، وشدد على أن “تقنية الذكاء الاصطناعي التوليدي تتطور بسرعة كبيرة جدًا، ولا بد من إجراء تحسينات مؤسسية.”
كو وو-يونغ يعرض مخاطر الأخبار الزائفة المُولدة بالذكاء الاصطناعي في NetSec-KR 2026
قدم تشوي سوك-وو، مدير معهد NSTI، عرضًا بعنوان “تقنية تحليل البرمجيات الخبيثة المعتمدة على الذكاء الاصطناعي” في الجلسة نفسها. ووفقًا لنتائج تشوي، عندما يبدأ الذكاء الاصطناعي في استخدامه لتوليد برمجيات خبيثة، يتم إنشاء ما يقارب 450,000 عينة جديدة من البرمجيات الخبيثة يوميًا. وقد تجاوز إجمالي البرمجيات الخبيثة التراكمي 1 مليار نسخة.
استجابةً لهذا التهديد المتصاعد، دعا تشوي إلى تطوير حلول تقودها تقنيات الذكاء الاصطناعي، بما في ذلك أنظمة دعم تحليل معتمدة على الذكاء الاصطناعي، وعوامل تحليل مستقلة مبنية على نماذج النمذجة اللغوية الكبيرة (LLM)، وأدوات إزالة التعتيم الآلية.
تشوي سوك-وو يقدم ضرورة تقنية تحليل البرمجيات الخبيثة المعتمدة على الذكاء الاصطناعي
قدّم جي هيون-سوك، باحثًا كبيرًا في معهد NSTI، عرضًا بعنوان “عصر الكشف عن ثغرات أمن البرمجيات المعتمد على نماذج النمذجة اللغوية الكبيرة”. قام بحث جي بدراسة كيفية قيام نماذج النمذجة اللغوية الكبيرة بالكشف عن نقاط الضعف الأمنية، ووجد قيودًا كبيرة على القدرات الحالية.
ذكر جي: “في الحالات الأخيرة، رغم أن الذكاء الاصطناعي قد حدد العديد من نقاط الضعف، تُظهر نتائج التحليل أن هذا ليس صحيحًا فعليًا. لم يكن الكشف الفعال عن نقاط الضعف ممكنًا إلا عندما تم تزويد نماذج النمذجة اللغوية الكبيرة ونماذج الذكاء الاصطناعي بأدوات مخصصة للكشف عن نقاط الضعف.” ووفقًا لجي، تواجه نماذج النمذجة اللغوية الكبيرة حاليًا عدة قيود، بما في ذلك صعوبة التعامل مع قواعد الشيفرة الكبيرة، ومشكلات الاعتماد على البيانات، واستدلال غير موثوق.
توقع جي أن تُعظَّم الاستفادة المشتركة عندما يستطيع محللو الأمن المهرة القادرون على تحديد نقاط الضعف مباشرة الاستفادة من أدوات نماذج النمذجة اللغوية الكبيرة. ومع ذلك، أكد جي أن “كشف نقاط الضعف عبر نماذج النمذجة اللغوية الكبيرة غير مكتمل بعد. يجب استكشاف طرق أفضل للعثور على نقاط الضعف.” أبرز العرض أن الكشف عن نقاط الضعف المعتمد على نماذج النمذجة اللغوية الكبيرة لا يمكن تنفيذه بفعالية حتى الآن بواسطة الذكاء الاصطناعي وحده، ولا تزال الخبرة البشرية ضرورية لتحليل أمني موثوق.
جي هيون-سوك يقدم بحث كشف نقاط الضعف المعتمد على نماذج النمذجة اللغوية الكبيرة