16 апреля 2026 года Ко У-ён, старший исследователь Корейского института технологий национальной безопасности (NSTI), представил результаты на 32-й конференции по информационной и коммуникационной сетевой безопасности (NetSec-KR 2026) в Сеуле, раскрыв, что ИИ-сгенерированные фейковые новости можно производить поразительно дешево и быстро. По данным выступления Ко, создание фейковых новостей с использованием генеративного ИИ в среднем стоит 13 вон и занимает 4 секунды: для 12 фейковых новостей требуется 155 вон и в среднем 46 секунд. Ко подчеркнул, что распространение ИИ-сгенерированной дезинформации и вредоносных комментариев, предназначенных для манипулирования общественным мнением, стало критической угрозой для общества.
Ко отметил, что по мере того, как возможности генеративного ИИ все чаще злоупотребляются, основной тактикой злоупотребления становится манипулирование мнениями и информацией. Он подчеркнул, что раз стоимость и объем фейковых новостей и фейковых комментариев стали настолько низкими и изобильными, общество достигло момента, когда отличать правду от лжи стало чрезвычайно трудно.
Согласно анализу Ко, когда фейковая информация становится повсеместной, у членов общества возникает усталость от дезинформации, и они начинают терять интерес к реальности. Это явление заставляет людей сомневаться даже в подлинной информации. Ко отметил, что «наказание за фейковые новости юридически трудно обеспечить, если это не приводит к финансовой выгоде», и подчеркнул, что «технология генеративного ИИ развивается слишком быстро, и необходимы институциональные улучшения».
Ко У-ён представляет риски фейковых новостей, сгенерированных ИИ, на NetSec-KR 2026
Чхве Сок-у, директор NSTI, выступил с докладом «Технология анализа вредоносного ПО на основе ИИ» на той же сессии. По данным результатов Чхве, поскольку ИИ начинает использоваться для генерации вредоносного ПО, ежедневно создается примерно 450 000 новых образцов вредоносного ПО. Совокупный общий объем вредоносного ПО превысил 1 миллиард инстансов.
В ответ на нарастающую угрозу Чхве выступил за разработку решений, управляемых ИИ, включая системы аналитической поддержки на основе ИИ, автономные агенты анализа на базе больших языковых моделей (LLM) и инструменты автоматической деобфускации.
Чхве Сок-у представляет необходимость технологии анализа вредоносного ПО на основе ИИ
Чи Хён-сок, старший исследователь NSTI, выступил с докладом «Эра обнаружения уязвимостей программного обеспечения на основе LLM». Исследование Чи было посвящено тому, как LLM выявляют уязвимости безопасности, и показало существенные ограничения текущих возможностей.
Чи заявил: «В недавних случаях, хотя ИИ обнаружил множество уязвимостей, результаты анализа показывают, что это на самом деле не так. Эффективное обнаружение уязвимостей было возможно лишь тогда, когда LLM и модели ИИ снабжались специализированными инструментами для обнаружения уязвимостей». По словам Чи, LLM в настоящее время сталкиваются с рядом ограничений, включая трудности при работе с большими кодовыми базами, проблемы, связанные с зависимостями от данных, и ненадежные рассуждения.
Чи спрогнозировал, что синергия будет максимальной, когда опытные аналитики по безопасности, способные напрямую выявлять уязвимости, смогут использовать инструменты LLM. Однако Чи подчеркнул, что «обнаружение уязвимостей с помощью LLM еще не завершено. Необходимо исследовать более эффективные методы поиска уязвимостей». В выступлении было подчеркнуто, что обнаружение уязвимостей на основе LLM пока не может быть выполнено эффективно только с помощью ИИ, и человеческая экспертиза остается необходимой для надежного анализа безопасности.
Чи Хён-сок представляет исследование обнаружения уязвимостей на основе LLM