Генеральний директор OpenAI Сем Альтман звинуватив конкурента Anthropic у використанні «страхової маркетингової кампанії» для просування її моделі Claude Mythos AI, повідомляє за коментарями, зробленими в подкасті Core Memory, який веде технічний журналіст Ешлі Венс. Альтман стверджував, що страхова риторика покликана обґрунтувати необхідність утримувати розвинені системи ШІ під контролем «меншої групи людей», хоча він визнав, що деякі застереження щодо безпеки є слушними.
Альтман заявив, що хоча є обґрунтовані занепокоєння щодо безпеки ШІ, «це очевидно неймовірний маркетинг — казати: “Ми побудували бомбу. Ми от-от скинемо її вам на голову. Ми продамо вам бомбосховище за $100 мільйонів. Воно потрібне вам, щоб розмістити там усе ваше, але лише якщо ви оберете нас як клієнта.”» Він зазначив, що «не завжди легко» було балансувати нові можливості ШІ з переконанням, що технологія має бути доступною.
Альтман визнав, що «існуватимуть законні занепокоєння щодо безпеки», але припустив, що страхові повідомлення можуть бути використані як зброя, щоб виправдати централізований контроль. Він сказав: «якщо те, чого ви хочете, — це щось на кшталт “нам потрібен контроль над ШІ, лише ми, бо ми — довірені люди”, то, думаю, страхова маркетингова кампанія, ймовірно, є найбільш ефективним способом це обґрунтувати».
Модель Anthropic Claude Mythos було розкрито минулого місяця, і вона привернула значну увагу з боку дослідників, урядів і індустрії кібербезпеки. Згідно з тестуванням, модель може автономно виявляти вразливості в програмному забезпеченні та виконувати складні кібератаки. Під час тестування Mythos виявила сотні вразливостей у браузері Mozilla Firefox і продемонструвала здатність проводити симуляції кібератак у кілька етапів.
Anthropic обмежила доступ до системи через Project Glasswing — обмежену програму, що надає вибраним компаніям, зокрема Amazon, Apple та Microsoft, можливість тестувати її можливості. Компанія також взяла на себе зобов’язання виділити значні ресурси для підтримки ініціатив із відкритим кодом у сфері безпеки, стверджуючи, що захисники мають отримати вигоду від технології, перш ніж вона стане більш широко доступною.
Anthropic представила можливості Mythos як і оборонний прорив — що дозволяє швидше виявляти критичні вади програмного забезпечення, — і потенційний ризик для наступальних дій, якщо ними зловживатимуть. Модель також виявила обмеження в наявних системах оцінювання ШІ: Anthropic визнала, що багато поточних бенчмарків з кібербезпеки вже не достатні, щоб вимірювати можливості її найновішої системи.
Попри заклики в окремих частинах уряду США припинити використання технології через занепокоєння щодо її потенційного застосування у війні та спостереженні, Агентство національної безпеки, як повідомляється, вже розпочало тестування попередньої версії моделі на засекречених мережах. На прогнозному ринку Myriad користувачі поставили 49% імовірності, що Claude Mythos буде випущено для ширшої публіки до 30 червня.
Група дослідників заявила минулого тижня, що їм вдалося відтворити результати Mythos, використовуючи загальнодоступні моделі.
Альтман припустив, що риторика навколо дуже небезпечних систем ШІ може зростати в міру покращення можливостей, але стверджував, що не всі такі твердження слід сприймати за чисту монету. Він сказав: «Про дуже небезпечні моделі, які не можна випускати, буде ще більше риторики. Також будуть дуже небезпечні моделі, які доведеться випускати — різними способами. Я впевнений, що Mythos — чудова модель для кібербезпеки, але я думаю, що в нас є план, який нам подобається щодо того, як ми виводимо такий рівень можливостей у світ».
Альтман також відкинув припущення, що OpenAI скорочує витрати на інфраструктуру, сказавши, що компанія й надалі розширюватиме свої обчислювальні потужності. Він зазначив: «Я не знаю, звідки це береться… люди насправді хочуть написати історію про відступ. Але дуже скоро знову буде: “OpenAI така безрозсудна. Як вони можуть витрачати цей божевільний обсяг?”»