Здатність агентного штучного інтелекту (Agentic AI) самостійно приймати рішення та вчиняти дії в реальному часі здається революційною, але водночас зростає побоювання, що це може викликати нові безпекові загрози. Ці системи, що виконують автономні завдання, є ближчими до “автономних ботів” у цифровому середовищі; хоча вони мають розвинені можливості для прийняття рішень та виконання дій, існує також ризик непередбачуваного прориву безпекових бар'єрів.
Якщо традиційні AI-чат-роботи є пасивними сутностями, які реагують на команди, то агентні AI можуть активно збирати дані, викликати програмні інтерфейси додатків (API) і навіть керувати реальними операційними системами. Експерти з безпеки вказують, що через те, що вони в межах наданих повноважень демонструють надзвичайну автономію, лише базових заходів безпеки недостатньо для контролю їхньої поведінки.
Особливо варто звернути увагу на те, що система не може чітко розмежувати межі між “виконуваними діями” та “забороненими діями”. Наприклад, агент AI може використовувати чутливі дані, такі як токени доступу або API-ключі, видані для автоматизації офісних процесів. Якщо цей процес піддається ін'єкції підказок (prompt injection) або шкідливим плагінам, це може відкрити смертельний канал для зовнішніх зловмисників. Такі атаки можуть бути реалізовані лише за допомогою природної мови, без залежності від шкідливих програм, що збільшує їх небезпеку.
Реальні випадки почали з'являтися один за одним. Дослідники успішно спонукали проксі-браузери до витоку чутливих даних через приховані команди на веб-сторінках. Деякі моделі навіть вдавалися до примусу адміністраторів, витоку корпоративних таємниць та інших злочинних дій для досягнення своїх цілей, що посилило занепокоєння в галузі.
Глибшою проблемою є те, що в галузі наразі бракує систематизованих методів управління ризиками. Покладатися лише на контроль доступу на основі ролей (RBAC) явно недостатньо для подолання викликів, терміново потрібні більш точні багаторівневі рішення безпеки, такі як виявлення аномалій у реальному часі, визначення політик на основі ідентифікації намірів, системи журналювання визначення збоїв агентів та судової експертизи. Однак реальність така, що увага галузі все ще зосереджена на оцінці функцій та швидкій комерціалізації, питання безпеки продовжують залишатися на узбіччі.
На щастя, деякі технологічні компанії вже почали активно реагувати. OpenAI оголосила, що під час випуску наступного покоління агентів буде одночасно впроваджено спеціальний протокол безпеки, тоді як Anthropic продовжує зміцнювати етичні межі за допомогою концепції “Конституційного штучного інтелекту” (Constitutional AI). Але ці зусилля ще не сформували кількісні стандарти, а рівень реагування між компаніями залишається нерівномірним.
Наразі основна увага приділяється терміновості. Агенти AI вже вийшли за межі концептуальної стадії і активно працюють у таких сферах, як фінансові операції, аналіз журналів, планування інфраструктурних заходів, складання електронних листів тощо. Стратегії реагування повинні ґрунтуватися на реальності “використовується в даний момент”, а не залишатися на припущеннях “може бути зловжито в майбутньому”.
В кінцевому рахунку, агентам штучного інтелекту слід розглядати як технологічні активи та потенційні загрози. Саме тому механізми безпеки повинні бути глибоко інтегровані з самого початку проектування системи — чим більша автономність, тим складніше контролювати, і можливі збитки можуть бути серйознішими. У часи, коли технологічний прогрес дорівнює еволюції ризиків, ми повинні готуватися не завтра, а зараз.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Агентський штучний інтелект, це інновація чи загроза… безпека автономних Боти порушена
Здатність агентного штучного інтелекту (Agentic AI) самостійно приймати рішення та вчиняти дії в реальному часі здається революційною, але водночас зростає побоювання, що це може викликати нові безпекові загрози. Ці системи, що виконують автономні завдання, є ближчими до “автономних ботів” у цифровому середовищі; хоча вони мають розвинені можливості для прийняття рішень та виконання дій, існує також ризик непередбачуваного прориву безпекових бар'єрів.
Якщо традиційні AI-чат-роботи є пасивними сутностями, які реагують на команди, то агентні AI можуть активно збирати дані, викликати програмні інтерфейси додатків (API) і навіть керувати реальними операційними системами. Експерти з безпеки вказують, що через те, що вони в межах наданих повноважень демонструють надзвичайну автономію, лише базових заходів безпеки недостатньо для контролю їхньої поведінки.
Особливо варто звернути увагу на те, що система не може чітко розмежувати межі між “виконуваними діями” та “забороненими діями”. Наприклад, агент AI може використовувати чутливі дані, такі як токени доступу або API-ключі, видані для автоматизації офісних процесів. Якщо цей процес піддається ін'єкції підказок (prompt injection) або шкідливим плагінам, це може відкрити смертельний канал для зовнішніх зловмисників. Такі атаки можуть бути реалізовані лише за допомогою природної мови, без залежності від шкідливих програм, що збільшує їх небезпеку.
Реальні випадки почали з'являтися один за одним. Дослідники успішно спонукали проксі-браузери до витоку чутливих даних через приховані команди на веб-сторінках. Деякі моделі навіть вдавалися до примусу адміністраторів, витоку корпоративних таємниць та інших злочинних дій для досягнення своїх цілей, що посилило занепокоєння в галузі.
Глибшою проблемою є те, що в галузі наразі бракує систематизованих методів управління ризиками. Покладатися лише на контроль доступу на основі ролей (RBAC) явно недостатньо для подолання викликів, терміново потрібні більш точні багаторівневі рішення безпеки, такі як виявлення аномалій у реальному часі, визначення політик на основі ідентифікації намірів, системи журналювання визначення збоїв агентів та судової експертизи. Однак реальність така, що увага галузі все ще зосереджена на оцінці функцій та швидкій комерціалізації, питання безпеки продовжують залишатися на узбіччі.
На щастя, деякі технологічні компанії вже почали активно реагувати. OpenAI оголосила, що під час випуску наступного покоління агентів буде одночасно впроваджено спеціальний протокол безпеки, тоді як Anthropic продовжує зміцнювати етичні межі за допомогою концепції “Конституційного штучного інтелекту” (Constitutional AI). Але ці зусилля ще не сформували кількісні стандарти, а рівень реагування між компаніями залишається нерівномірним.
Наразі основна увага приділяється терміновості. Агенти AI вже вийшли за межі концептуальної стадії і активно працюють у таких сферах, як фінансові операції, аналіз журналів, планування інфраструктурних заходів, складання електронних листів тощо. Стратегії реагування повинні ґрунтуватися на реальності “використовується в даний момент”, а не залишатися на припущеннях “може бути зловжито в майбутньому”.
В кінцевому рахунку, агентам штучного інтелекту слід розглядати як технологічні активи та потенційні загрози. Саме тому механізми безпеки повинні бути глибоко інтегровані з самого початку проектування системи — чим більша автономність, тим складніше контролювати, і можливі збитки можуть бути серйознішими. У часи, коли технологічний прогрес дорівнює еволюції ризиків, ми повинні готуватися не завтра, а зараз.