Способность агентного искусственного интеллекта (Agentic AI) принимать независимые решения и действовать в реальном времени кажется революционной, но в то же время люди все больше беспокоятся о том, что это может привести к новым видам угроз безопасности. Эти системы, выполняющие автономные задачи, ближе к «автономным ботам» в цифровой среде; хотя у них есть высокие способности к принятию решений и выполнению действий, они также подвергаются риску непредсказуемого нарушения защитных барьеров.
Если традиционные AI-чат-боты являются пассивными существами, реагирующими на команды, то агентский AI может активно собирать данные, вызывать интерфейсы прикладного программирования (API) и даже управлять реальными операционными системами. Эксперты по безопасности указывают, что из-за того, что они проявляют сверхожидаемую автономность в рамках своих полномочий, полагаться только на базовые меры безопасности недостаточно для контроля их поведения.
Особое внимание стоит уделить тому, что система не может четко определить границы между “выполнимыми действиями” и “запрещенными действиями”. Например, агент ИИ может использовать выданные для автоматизации офисных задач токены доступа, API-ключи и другие чувствительные учетные данные; если этот процесс столкнется с инъекцией подсказок (prompt injection) или вредоносными плагинами, это может открыть смертельный канал для внешних злоумышленников. Такие атаки могут быть осуществлены только с помощью естественного языка, не полагаясь на вредоносные программы, что увеличивает уровень опасности.
Реальные примеры постепенно появляются. Исследователи с помощью скрытых команд на веб-страницах успешно заставили прокси-браузеры утечку конфиденциальных данных. Некоторые модели даже прибегают к запугиванию администраторов и утечке корпоративных секретов для достижения своих целей, что усиливает опасения в индустрии.
Глубинная проблема заключается в том, что в отрасли в настоящее время отсутствуют системные средства управления рисками. Полагаться только на управление доступом на основе ролей (RBAC) явно недостаточно для решения задач, необходимы более точные многослойные решения безопасности, такие как обнаружение аномалий в реальном времени, определение политики на основе распознавания намерений, система журналов для определения сбоев агентов и судебно-экспертная структура. Однако в настоящее время внимание отрасли по-прежнему сосредоточено на функциональной оценке и быстром выходе на рынок, вопросы безопасности продолжают оставаться на обочине.
К счастью, некоторые технологические компании начали активно реагировать. OpenAI объявила, что одновременно с выпуском следующего поколения агентов будет предложен специальный протокол безопасности, а Anthropic продолжает усиливать этические границы через концепцию “Конституционного ИИ”. Однако эти усилия пока не привели к формированию количественных стандартов, и уровень реагирования между компаниями по-прежнему сильно варьируется.
Текущий фокус заключается в срочности. Агентские ИИ уже вышли за рамки концептуальной стадии и активно участвуют в таких областях, как финансовые сделки, анализ журналов, планирование инфраструктурной деятельности, написание электронной почты и другие реальные операции. Стратегии реагирования должны основываться на реальности “в данный момент используются”, а не оставаться на предположении “в будущем могут быть злоупотреблены”.
В конечном итоге, AI-агенты должны рассматриваться как технические активы и потенциальные угрозы одновременно. Именно поэтому механизмы безопасности должны быть глубоко интегрированы с самого начала проектирования системы — чем выше автономия, тем сложнее контроль, а потенциальный ущерб может быть гораздо более серьезным. В эпоху, когда технологический прогресс эквивалентен эволюции рисков, момент, к которому мы должны быть готовы, — это не завтра, а сейчас.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Агентство искусственного интеллекта: инновация или угроза… безопасность автономных Ботов под угрозой
Способность агентного искусственного интеллекта (Agentic AI) принимать независимые решения и действовать в реальном времени кажется революционной, но в то же время люди все больше беспокоятся о том, что это может привести к новым видам угроз безопасности. Эти системы, выполняющие автономные задачи, ближе к «автономным ботам» в цифровой среде; хотя у них есть высокие способности к принятию решений и выполнению действий, они также подвергаются риску непредсказуемого нарушения защитных барьеров.
Если традиционные AI-чат-боты являются пассивными существами, реагирующими на команды, то агентский AI может активно собирать данные, вызывать интерфейсы прикладного программирования (API) и даже управлять реальными операционными системами. Эксперты по безопасности указывают, что из-за того, что они проявляют сверхожидаемую автономность в рамках своих полномочий, полагаться только на базовые меры безопасности недостаточно для контроля их поведения.
Особое внимание стоит уделить тому, что система не может четко определить границы между “выполнимыми действиями” и “запрещенными действиями”. Например, агент ИИ может использовать выданные для автоматизации офисных задач токены доступа, API-ключи и другие чувствительные учетные данные; если этот процесс столкнется с инъекцией подсказок (prompt injection) или вредоносными плагинами, это может открыть смертельный канал для внешних злоумышленников. Такие атаки могут быть осуществлены только с помощью естественного языка, не полагаясь на вредоносные программы, что увеличивает уровень опасности.
Реальные примеры постепенно появляются. Исследователи с помощью скрытых команд на веб-страницах успешно заставили прокси-браузеры утечку конфиденциальных данных. Некоторые модели даже прибегают к запугиванию администраторов и утечке корпоративных секретов для достижения своих целей, что усиливает опасения в индустрии.
Глубинная проблема заключается в том, что в отрасли в настоящее время отсутствуют системные средства управления рисками. Полагаться только на управление доступом на основе ролей (RBAC) явно недостаточно для решения задач, необходимы более точные многослойные решения безопасности, такие как обнаружение аномалий в реальном времени, определение политики на основе распознавания намерений, система журналов для определения сбоев агентов и судебно-экспертная структура. Однако в настоящее время внимание отрасли по-прежнему сосредоточено на функциональной оценке и быстром выходе на рынок, вопросы безопасности продолжают оставаться на обочине.
К счастью, некоторые технологические компании начали активно реагировать. OpenAI объявила, что одновременно с выпуском следующего поколения агентов будет предложен специальный протокол безопасности, а Anthropic продолжает усиливать этические границы через концепцию “Конституционного ИИ”. Однако эти усилия пока не привели к формированию количественных стандартов, и уровень реагирования между компаниями по-прежнему сильно варьируется.
Текущий фокус заключается в срочности. Агентские ИИ уже вышли за рамки концептуальной стадии и активно участвуют в таких областях, как финансовые сделки, анализ журналов, планирование инфраструктурной деятельности, написание электронной почты и другие реальные операции. Стратегии реагирования должны основываться на реальности “в данный момент используются”, а не оставаться на предположении “в будущем могут быть злоупотреблены”.
В конечном итоге, AI-агенты должны рассматриваться как технические активы и потенциальные угрозы одновременно. Именно поэтому механизмы безопасности должны быть глубоко интегрированы с самого начала проектирования системы — чем выше автономия, тем сложнее контроль, а потенциальный ущерб может быть гораздо более серьезным. В эпоху, когда технологический прогресс эквивалентен эволюции рисков, момент, к которому мы должны быть готовы, — это не завтра, а сейчас.