72 часа кризиса идентичности Anthropic

Последнее обновление 2026-03-24 20:41:03
Время чтения: 1m
За семьдесят два часа Anthropic оказалась перед ультиматумом Пентагона, публичными обвинениями от Илона Маска и отказом от собственных обязательств по безопасности. Компания, ранее отказавшаяся от разработки автономного военного оружия, пересмотрела RSP 3.0 и отказалась от принципа «pause training», продолжая позиционировать себя как лидера в сфере «безопасного ИИ». Теперь Anthropic сталкивается с усиливающимся разрывом между имиджем и реальными действиями. В статье рассматриваются политические факторы, давление оценки и разрушение премиального нарратива безопасности, которые формируют этот кризис идентичности.

Вторник, 24 февраля. Вашингтон, Пентагон.

Генеральный директор Anthropic Дарио Амодеи сидел напротив министра обороны Пита Хегсета. По данным NPR и CNN, встреча прошла «вежливо», но ее содержание было далеко от мягкости.

Хегсет выдвинул ультиматум: к 17:01 в пятницу Anthropic должен снять все ограничения на военное использование Claude и разрешить Пентагону применять его для «всех законных целей», включая автономное наведение оружия и масштабное внутреннее наблюдение.

В противном случае контракт на $200 миллионов будет аннулирован. Будет применен Закон о производстве для нужд обороны, предусматривающий принудительное изъятие. Anthropic будет признан «риском для цепочки поставок» — фактически внесен в черный список вместе с противниками, такими как Россия и Китай.

В тот же день Anthropic опубликовал третью редакцию Responsible Scaling Policy (RSP 3.0), тихо убрав свое основное обещание: не обучать более мощные модели без внедрения мер безопасности.

Также в этот день Илон Маск разместил на X: «Anthropic осуществил крупномасштабное хищение обучающих данных — это факт». В то же время Community Notes на X ссылались на сообщения о том, что Anthropic выплатил $1,5 миллиарда для урегулирования претензий по обучению Claude на пиратских книгах.

За семьдесят два часа компания, ранее заявлявшая о наличии «души», стала мучеником безопасности, нарушителем интеллектуальной собственности и предателем Пентагона.

Кто настоящая Anthropic?

Возможно, все три.

Мандат Пентагона: «Выполняй или уходи»

Первый слой истории прост.

Anthropic стала первой компанией ИИ, получившей секретный доступ от Министерства обороны США, с контрактом до $200 миллионов, заключенным прошлым летом. OpenAI, Google и xAI позже получили аналогичные контракты.

Al Jazeera сообщает, что Claude применялся в военной операции США в январе. Миссия включала похищение президента Венесуэлы Мадуро.

Anthropic провела две красные линии: не поддерживать полностью автономное наведение оружия и не поддерживать масштабное наблюдение за гражданами США. Компания утверждает, что ИИ недостаточно надежен для управления оружием, а законы для массового наблюдения с помощью ИИ отсутствуют.

Пентагон не принял эти аргументы.

В октябре советник Белого дома по ИИ Дэвид Сакс публично обвинил Anthropic на X в «использовании страха для достижения регуляторного контроля».

Конкуренты уже уступили. OpenAI, Google и xAI согласились разрешить военное применение своих ИИ для «всех законных сценариев». Grok Маска только что одобрен для секретных систем.

Anthropic осталась последней, кто не уступил.

На момент написания Anthropic в последнем заявлении сообщила, что не собирается уступать. Но крайний срок — пятница, 17:01 — приближается.

Анонимный бывший посредник между Министерством юстиции и Пентагоном сказал CNN: «Как можно объявить компанию "риском для цепочки поставок" и одновременно заставлять ее работать на военные нужды?»

Это хороший вопрос — но Пентагон им не интересуется. Их задача — если Anthropic не пойдет на компромисс, заставить подчиниться или оставить компанию в изоляции в Вашингтоне.

«Distillation Attack»: публичное обвинение оборачивается против обвинителя

23 февраля Anthropic опубликовал резкий блог-пост, обвинив три китайские компании ИИ — DeepSeek, Moonshot AI и MiniMax — в «промышленных атаках дистилляции» на Claude.

Anthropic утверждает, что эти компании использовали 24 000 фейковых аккаунтов для проведения более 16 миллионов взаимодействий с Claude, систематически извлекая его ключевые возможности в агентном мышлении, использовании инструментов и программировании.

Anthropic представил это как угрозу национальной безопасности, заявив, что дистиллированные модели «вряд ли сохраняют защитные барьеры» и могут быть использованы авторитарными правительствами для кибератак, дезинформации и массового наблюдения.

Этот нарратив был своевременным и хорошо сформулированным.

Он появился после того, как администрация Трампа ослабила экспортный контроль чипов в Китай — как раз тогда Anthropic понадобились новые аргументы для лоббирования экспорта чипов.

Но Маск ответил: «Anthropic осуществил крупномасштабное хищение обучающих данных и выплатил миллиарды в урегулировании. Это факт».

Сооснователь IO.Net Тори Грин прокомментировал: «Вы обучаете свои модели на всем интернете, а когда другие учатся через ваш публичный API, называете это "атакой дистилляции"?»

Anthropic называет дистилляцию «атакой», но это стандартная практика в индустрии ИИ. OpenAI использовал ее для сжатия GPT-4, Google — для оптимизации Gemini, Anthropic тоже применяла ее. Единственное отличие — в этот раз объектом стала Anthropic.

Как отметил профессор ИИ из NTU Эрик Камбрия в интервью CNBC: «Грань между легитимным использованием и злонамеренной эксплуатацией часто размыта».

Еще ироничнее, Anthropic недавно выплатила $1,5 миллиарда для урегулирования претензий по обучению Claude на пиратских книгах. Они обучали на всем интернете, а затем обвиняют других в обучении через свой публичный API. Это не просто двойные стандарты — это тройные стандарты.

Anthropic пыталась представить себя жертвой, но оказалась обвиняемой.

Отказ от обязательств по безопасности: RSP 3.0

В тот же день, когда Anthropic столкнулась с Пентагоном и спорила с Кремниевой долиной, компания выпустила третью версию Responsible Scaling Policy.

Главный научный сотрудник Джаред Каплан заявил: «Мы не считаем, что остановка обучения моделей ИИ приносит кому-либо пользу. ИИ развивается настолько быстро, что односторонние обязательства, когда конкуренты идут вперед на полной скорости, не имеют смысла».

Иными словами: если другие не соблюдают правила, мы тоже не будем.

В основе RSP 1.0 и 2.0 лежало жесткое обязательство: если возможности модели выходят за рамки мер безопасности, обучение приостанавливается. Это обещание обеспечило Anthropic уникальную репутацию в сообществе по безопасности ИИ.

Но версия 3.0 отказалась от этого обещания.

Его заменили более «гибкой» схемой — разделением мер безопасности, которые Anthropic может внедрить, и отраслевых рекомендаций. Каждые 3–6 месяцев будет публиковаться отчет о рисках с внешней экспертной оценкой.

Звучит ли это ответственно?

Крис Пейнтер, независимый эксперт METR, после ознакомления с черновиком отметил: «Это показывает, что Anthropic считает необходимым перейти в "режим сортировки", потому что оценка и снижение рисков не успевают за ростом возможностей. Это еще одно доказательство того, что общество не готово к катастрофическим рискам ИИ».

TIME сообщил, что Anthropic почти год внутренне обсуждала эту редакцию, а генеральный директор Амодеи и совет директоров одобрили ее единогласно. Официально исходная политика должна была способствовать консенсусу в отрасли, но индустрия не поддержала ее. Администрация Трампа заняла позицию невмешательства в ИИ, даже пыталась отменить законы штатов. Федеральное регулирование ИИ остается недостижимым. В 2023 году казалось возможным создание глобальной системы управления, но спустя три года эта возможность исчезла.

Анонимный исследователь с большим стажем в управлении ИИ выразился прямо: «RSP — самый ценный брендовый актив Anthropic. Отказ от паузы в обучении — как если бы производитель органических продуктов тихо убрал "органик" с этикетки, а потом заявил, что теперь тестирование стало прозрачнее».

Кризис идентичности при оценке $380 миллиардов

В начале февраля Anthropic завершила раунд финансирования на $30 миллиардов при общей оценке $380 миллиардов, где Amazon выступил ведущим инвестором. С момента основания компания достигла $14 миллиардов годовой выручки, а за последние три года этот показатель рос более чем в десять раз ежегодно.

В то же время Пентагон угрожает включить компанию в черный список. Маск публично обвиняет ее в краже данных. Ключевое обязательство по безопасности исчезло. Руководитель по безопасности ИИ Anthropic Мринанк Шарма ушел и написал на X: «Миру грозит опасность».

Противоречие?

Возможно, противоречие — часть ДНК Anthropic.

Основанная бывшими руководителями OpenAI, обеспокоенными скоростью внедрения мер безопасности в OpenAI, Anthropic создала еще более мощные модели, быстрее, одновременно рассказывая миру об их опасности.

Суть бизнес-модели: мы боимся ИИ больше всех, поэтому вы должны платить нам за его создание.

Этот нарратив отлично работал в 2023–2024 годах. Безопасность ИИ была ключевой темой в Вашингтоне, а Anthropic — самым активным лоббистом.

К 2026 году ситуация изменилась.

«Woke AI» стал политическим оскорблением, регулирование ИИ на уровне штатов заблокировано Белым домом, и хотя SB 53 в Калифорнии (поддержанный Anthropic) стал законом, на федеральном уровне ничего не произошло.

Нарратив безопасности Anthropic превращается из «отличительной черты» в «политическую обузу».

Anthropic ведет сложную игру — ей нужно быть достаточно «безопасной» для сохранения бренда, но достаточно «гибкой», чтобы не быть отвергнутой рынком или государством. Проблема в том, что терпимость обеих сторон уменьшается.

Сколько стоит нарратив безопасности сегодня?

В совокупности три события дают ясную картину.

Обвинение китайских компаний в дистилляции Claude усиливает лоббистские аргументы за экспортный контроль чипов. Отказ от паузы безопасности сохраняет Anthropic в гонке вооружений. Неподчинение требованию Пентагона по автономному оружию оставляет последний слой моральной репутации.

Каждое действие логично, но каждое противоречит другому.

Нельзя утверждать, что китайские компании «дистиллируют» вашу модель и это угрожает национальной безопасности, одновременно снимая собственное обязательство не допускать выхода модели из-под контроля. Если модель настолько опасна, нужно быть осторожнее, а не агрессивнее.

Если только вы не Anthropic.

В индустрии ИИ идентичность определяется не заявлениями, а балансом. Нарратив «безопасности» Anthropic — по сути, надбавка к бренду.

В начале гонки ИИ эта надбавка была ценной. Инвесторы платили за «ответственный ИИ», правительства одобряли «доверенный ИИ», клиенты покупали «более безопасный ИИ».

Но к 2026 году эта надбавка исчезает.

Anthropic теперь сталкивается не с вопросом «компромисс или нет», а с дилеммой «с кем идти на компромисс первым». Компромисс с Пентагоном — ущерб бренду. Компромисс с конкурентами — отказ от обязательства по безопасности. Компромисс с инвесторами — уступки обеих сторон.

В пятницу в 17:01 Anthropic даст ответ.

Каким бы ни был результат, ясно одно: Anthropic, которая раньше строила успех на лозунге «мы не такие, как OpenAI», становится такой же, как все.

Конец кризиса идентичности часто означает исчезновение самой идентичности.

Заявление:

  1. Данная статья воспроизводится с сайта [TechFlow]. Авторские права принадлежат оригинальному автору [Ada]. Если у вас есть вопросы по данному воспроизведению, пожалуйста, свяжитесь с командой Gate Learn, и мы оперативно решим вопрос в соответствии с действующими процедурами.
  2. Отказ от ответственности: Мнения и взгляды, изложенные в данной статье, принадлежат исключительно автору и не являются инвестиционной рекомендацией.
  3. Другие языковые версии данной статьи переведены командой Gate Learn. Без упоминания Gate копирование, распространение или плагиат переведенных материалов запрещены.

Пригласить больше голосов

sign up guide logosign up guide logo
sign up guide content imgsign up guide content img
Sign Up

Похожие статьи

Что такое Tronscan и как вы можете использовать его в 2025 году?
Новичок

Что такое Tronscan и как вы можете использовать его в 2025 году?

Tronscan — это обозреватель блокчейна, который выходит за рамки основ, предлагая управление кошельком, отслеживание токенов, аналитику смарт-контрактов и участие в управлении. К 2025 году она будет развиваться за счет улучшенных функций безопасности, расширенной аналитики, кроссчейн-интеграции и улучшенного мобильного опыта. Теперь платформа включает в себя расширенную биометрическую аутентификацию, мониторинг транзакций в режиме реального времени и комплексную панель управления DeFi. Разработчики получают выгоду от анализа смарт-контрактов на основе искусственного интеллекта и улучшенных сред тестирования, в то время как пользователи наслаждаются унифицированным многоцепочечным представлением портфеля и навигацией на основе жестов на мобильных устройствах.
2026-04-08 21:20:53
Что такое индикатор кумулятивного объема дельты (CVD)? (2025)
Средний

Что такое индикатор кумулятивного объема дельты (CVD)? (2025)

Изучите эволюцию кумулятивного объема дельты (CVD) в криптоторговле в 2025 году, от интеграции машинного обучения и анализа межбиржевых данных до продвинутых инструментов визуализации, позволяющих более точно принимать рыночные решения за счет агрегации данных с нескольких платформ и автоматического обнаружения дивергенций.
2026-03-24 11:52:46
Что такое Нейро? Все, что вам нужно знать о NEIROETH в 2025 году
Средний

Что такое Нейро? Все, что вам нужно знать о NEIROETH в 2025 году

Neiro - это собака породы шиба-ину, которая вдохновила запуск токенов Neiro на различных блокчейнах. К 2025 году Neiro Ethereum (NEIROETH) превратился в ведущий мем-коин с рыночной капитализацией 215 миллионов долларов, 87 000+ держателей и листингом на 12 крупнейших биржах. Экосистема теперь включает DAO для управления сообществом, официальный магазин мерчандайза и мобильное приложение. NEIROETH внедрил решения второго уровня для увеличения масштабируемости и закрепил свою позицию в топ-10 мем-коинов по капитализации, поддерживаемый активным сообществом и ведущими крипто-инфлюенсерами.
2026-04-06 04:45:31
Что такое Solscan и как его использовать? (Обновление 2025 года)
Средний

Что такое Solscan и как его использовать? (Обновление 2025 года)

Solscan — это усовершенствованный обозреватель блокчейна Solana, который предлагает пользователям веб-платформу для исследования и анализа транзакций, адресов кошельков, контрактов, NFT и DeFi проектов на блокчейне Solana. После его приобретения Etherscan в 2025 году платформа теперь имеет переработанную аналитическую панель, расширенные инструменты для разработчиков, продвинутые функции безопасности, комплексный мониторинг DeFi протоколов по 78 протоколам и сложные интеграции NFT-рынков с инструментами анализа редкости.
2026-04-07 23:51:32
15 криптовалютных проектов уровня 1 (L1), на которые стоит обратить внимание в 2024 году
Новичок

15 криптовалютных проектов уровня 1 (L1), на которые стоит обратить внимание в 2024 году

В этой статье рассматриваются 15 проектов криптовалюты Layer-1, на которые стоит обратить внимание в 2024 году, подчеркивая их важность в обеспечении безопасности, консенсуса и децентрализации экосистемы блокчейна. В то время как решения Layer-2 улучшают производительность, они все равно полагаются на безопасность и децентрализацию, обеспечиваемые сетями Layer-1.
2026-04-06 16:30:19
Что такое Telegram NFT?
Средний

Что такое Telegram NFT?

В этой статье обсуждается превращение Telegram в приложение, работающее на основе NFT, интегрирующее технологию блокчейна для революционизации цифрового дарения и владения. Узнайте основные возможности, возможности для художников и создателей, и будущее цифровых взаимодействий с NFT от Telegram.
2026-04-04 16:17:27