Удар Трампа по Ірану та новий тип війн із штучним інтелектом означають, що бомби можуть падати швидше, ніж швидкість думки

Штучний інтелект увійшов у командний центр війни, і, за словами експертів, він не збирається йти звідси найближчим часом.

Рекомендоване відео


Незважаючи на те, що президент Дональд Трамп наказав федеральним агентствам і військовим підрядникам припинити співпрацю з Anthropic, у Збройних силах США повідомляється, що компанія використовувала свою модель штучного інтелекту Claude у нападі на Іран, згідно з Wall Street Journal.

Зараз деякі експерти висловлюють занепокоєння щодо використання ШІ у військових операціях. «Машина ШІ робить рекомендації щодо цілей, що насправді є набагато швидше, ніж швидкість мислення», — сказав Крэйг Джонс, автор книги The War Lawyers: The United States, Israel, and Juridical Warfare, яка досліджує роль військових юристів у сучасній війні, газеті Guardian.

У розмові з Fortune Джонс, викладач у Ньюкаслському університеті з питань війни та конфліктів, зазначив, що ШІ значно прискорив «ланцюг убивств», скоротивши час від початкового визначення цілі до її остаточного знищення. Він припустив, що удари США та Ізраїлю по Ірану, які призвели до смерті аятолли Алі Хаменеї, можливо, не відбулися б без ШІ.

«Це було б майже неможливо зробити у такий спосіб», — сказав Джонс Fortune. «Швидкість виконання, масштаб і обсяг ударів, я вважаю, є можливими завдяки ШІ».

Пентагон залучив допомогу компаній, що займаються ШІ, для прискорення та покращення військового планування, уклавши партнерство з Anthropic у 2024 році, яке минулого тижня розпалося через розбіжності щодо використання моделі ШІ компанії Claude. Але OpenAI швидко уклала угоду з Пентагоном, а Elon Musk’s xAI досягла домовленості про використання їхньої моделі ШІ, Grok, у секретних системах. Також Армія США використовує програмне забезпечення компанії Palantir для отримання аналітичних даних із застосуванням ШІ для прийняття рішень.

ШІ на полі бою

Джонс зазначив, що ВПС США вже роками використовують «швидкість мислення» як орієнтир для швидкості прийняття рішень. За його словами, час від збору розвідки, наприклад, аеророзвідки, до виконання бомбардування міг сягати до шести місяців під час Другої світової війни та В’єтнамської війни. ШІ значно скоротив цей час.

Ключова роль інструментів ШІ у командному центрі — швидко аналізувати величезні обсяги даних. «Ми говоримо про терабайти, терабайти, терабайти даних», — сказав Джонс, — «від аерофотознімків, людської розвідки, інтернет-розвідки, мобільного телефонного слідкування, все і вся».

Амір Хусейн, співавтор книги Hyperwar: Conflict and Competition in the AI Century, зазначив, що ШІ використовується для скорочення рамок ухвалення рішень у військових структурах США, зокрема у так званому циклі OODA — спостереження, орієнтація, рішення, дія. Він сказав, що ШІ вже відіграє важливу роль у спостереженні, інтерпретації супутникових та електронних даних, тактичному рівні ухвалення рішень і фазі «дії», зокрема через автономні дрони, які мають діяти без людського керівництва, коли сигнали заважають. Деякі з цих дронів є копіями іранських автономних Shahed.

ШІ також з’явився на інших полях битви. Ізраїль, за повідомленнями, використовував ШІ для ідентифікації цілей Хамас під час війни між Ізраїлем і Хамасом. А автономні дрони перебувають на передовій у війні Росії та України, обидві сторони застосовують різні варіанти автономних технологій.

Зростання ризиків

Однак Джонс висловив кілька занепокоєнь щодо війни з використанням ШІ. «Проблема, коли додаєш ШІ, — це те, що ти множиш, я б сказав, у багато разів, ступінь помилок», — сказав він.

Звичайно, людські помилки існують і без ШІ, наголосив Джонс, посилаючись на вторгнення США в Ірак у 2003 році, яке базувалося на помилковій розвідці. Але він вважає, що ШІ може погіршити такі помилки через обсяг даних, які аналізує технологія.

Також виникає низка етичних питань щодо війни з використанням ШІ, головним чином щодо відповідальності, що вже передбачено Женевськими конвенціями та законами про озброєний конфлікт. Оскільки ШІ розмиває межі між машинним і людським ухваленням рішень, він наголосив, що міжнародна спільнота має забезпечити, щоб відповідальність за всі дії на полі бою покладалася на людину.

«Закони про озброєний конфлікт вимагають, щоб ми звинувачували людину», — сказав Хусейн. «Людина має бути відповідальною незалежно від рівня автоматизації на полі бою».

Приєднуйтесь до нас на Форумі інновацій у сфері праці Fortune 19–20 травня 2026 року в Атланті. Наступна ера інновацій у сфері праці вже тут — і старий сценарій переписується. На цьому ексклюзивному, енергійному заході найінноваційніші лідери світу зберуться, щоб дослідити, як ШІ, людство і стратегія знову змінюють майбутнє роботи. Реєструйтеся зараз.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити