Угода OpenAI з Пентагоном була оголошена всього за кілька годин після федерального заборони на Anthropic.



Коли і як це було оголошено?
Генеральний директор OpenAI Сэм Альтман у п’ятницю ввечері оголосив, що компанія підписала угоду з Міністерством оборони США. Це сталося в той самий день, коли Трамп заборонив Anthropic для федеральних агентств, оголосивши її "ризиком для національної безпеки у ланцюгу постачань".
Обсяг угоди:
Моделі GPT від OpenAI можуть використовуватися у засекречених/таємних військових мережах.
Оцінна вартість контракту становить близько $200 мільйонів.
OpenAI пропонує свої моделі через власний хмарний API.
Безпека та етичні "захисні огорожі"
OpenAI наголошує, що зберігає ті самі два основні обмеження, які відхилив Anthropic:
Зовнішній масовий нагляд заборонений.
Людський контроль є обов’язковим для повністю автономних систем озброєння; моделі не можуть бути вільно використані для "кожної законної мети".
OpenAI стверджує, що пропонує "міцніші захисні огорожі": поєднання юридичних + технічних + процесуальних + людських факторів. Альтман також додав, що ярлик "ризик ланцюга постачань", застосований до Anthropic, був несправедливим. Чому так швидко?
Очевидно, Пентагон затягнув місяці переговорів з Anthropic. Відразу після того, як Anthropic було виключено за наказом Трампа, OpenAI втрутився і закінчив угоду, отримавши схожі обмеження. Деякі коментатори вважають це "перевагою конкурента" і "прагматизмом" – тоді як адміністрація Трампа критикувала Anthropic як "лівий", OpenAI виявилася більш гнучкою/співпрацюючою.
Реакції та коментарі.
Деякі кажуть: "Пентагон відхилив умови Anthropic, але прийняв умови OpenAI, що є цікавою суперечністю."
Є критика: "Це не справжня захисна огорожа, просто PR" або "людський контроль слабкий, пов’язаний з політикою самого Пентагону."
Сам блог OpenAI ділиться деталями; він просить, щоб подібні угоди пропонувалися всім компаніям з ІІ.
Коротко: Anthropic опиралася на принципах і програла, OpenAI виграла, зберігши ті самі ( або подібні) принципи, зробивши великий крок на ринку військового штучного інтелекту. Ця подія ще більше посилила позицію уряду щодо компаній, що вимагають "безпеки", та конкуренцію між компаніями з ІІ.
#TrumpordersfederalbanonAnthropicAI
Переглянути оригінал
post-image
post-image
User_anyvip
#TrumpordersfederalbanonAnthropicAI
Президент США Дональд Трамп заборонив технології штучного інтелекту Anthropic усім федеральним агентствам. У заяві на своєму акаунті у Truth Social Трамп описав Anthropic як «радикально ліву, хитру компанію» і, після конфлікту з Пентагоном, сказав: «Припиніть усі її використання негайно, нам це не потрібно, ми цього не хочемо.»
Пентагон оголосив Anthropic «національним ризиком безпеки» після того, як компанія намагалася обмежити свої моделі ШІ для військових цілей (зокрема, без обмежень), надавши федеральним агентствам шести місяців на перехідний період. Це рішення призвело до втрати Anthropic урядових контрактів; конкуренти (такі як OpenAI) оголосили нові угоди з Пентагоном.
repost-content-media
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 15
  • Репост
  • Поділіться
Прокоментувати
0/400
xxx40xxxvip
· 2год тому
До Місяця 🌕
Переглянути оригіналвідповісти на0
xxx40xxxvip
· 2год тому
LFG 🔥
відповісти на0
CryptoChampionvip
· 14год тому
До Місяця 🌕
Переглянути оригіналвідповісти на0
AYATTACvip
· 15год тому
LFG 🔥
відповісти на0
AYATTACvip
· 15год тому
GOGOGO 2026 👊
Переглянути оригіналвідповісти на0
AYATTACvip
· 15год тому
До Місяця 🌕
Переглянути оригіналвідповісти на0
YamahaBluevip
· 16год тому
GOGOGO 2026 👊
Переглянути оригіналвідповісти на0
kader1vip
· 16год тому
До Місяця 🌕
Переглянути оригіналвідповісти на0
MuteVersevip
· 16год тому
LFG 🔥
відповісти на0
MuteVersevip
· 16год тому
До Місяця 🌕
Переглянути оригіналвідповісти на0
Дізнатися більше
  • Закріпити