Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
OpenAI и Anthropic: от "насмешек" к различиям - этическая борьба с Министерством обороны США
В последнее время два гиганта в области искусственного интеллекта публично высмеивали друг друга на платформах СМИ, борясь за пользователей. Но когда в игру вмешалось Министерство обороны США, они внезапно оказались вынуждены объединиться, чтобы противостоять давлению со стороны Пентагона. Этот конфликт касается не только денег или военных контрактов, а фундаментального вопроса: как следует использовать ИИ, когда на кон поставлена национальная безопасность?
От взаимных “насмешек” к союзу: почему два ИИ-гиганта оказались вместе против Пентагона
Ранее споры между OpenAI и Anthropic были жесткими. Claude разрабатывался командой, которая покинула OpenAI, и обе компании жестко конкурировали за пользователей, корпоративных клиентов и инвестиции. В прошлом году на Супербоуле Anthropic даже потратили деньги на насмешки над ChatGPT от OpenAI в своих телерекламных роликах. Вот насколько было напряженно между ними.
Однако ситуация изменилась, когда Anthropic подписала контракт на 200 миллионов долларов с Министерством обороны США. Claude стал первой моделью ИИ, развернутой в закрытой сети американской армии, поддерживая разведывательный анализ и планирование миссий. Но Anthropic выставила два ясных условия: Claude не должен использоваться для массового наблюдения за гражданами США и не должен развиваться в автономное оружие без человеческого контроля.
Пентагон не согласился. Их позиция была проста: приобретая инструмент, они используют его свободно, без указаний со стороны технологических компаний. Министр обороны Хегсетх прямо поставил ультиматум: Anthropic должны согласиться до 17:01 пятницы, иначе последуют последствия. Генеральный директор Anthropic отказался. Он публично заявил, что, несмотря на важность ИИ для обороны, в некоторых случаях ИИ может навредить демократическим ценностям. Мы не можем сознательно принять такие требования.
Реакция Пентагона была жесткой. Замминистра обороны Эмиль Майкл назвал руководителя Anthropic мошенником в соцсетях, заявив, что у него “мессианские” наклонности и что он шутит с национальной безопасностью.
Следующее событие стало неожиданностью. Более 400 сотрудников OpenAI и Google подписали совместное открытое письмо с заголовком “Мы не позволим разделить нас”. В нем указывалось, что Пентагон использует тактику разделения и властвования, устраивая раздельные переговоры с каждой компанией и пытаясь заставить другие компании принять условия, от которых отказалась Anthropic.
Генеральный директор OpenAI также выпустил внутреннее письмо всем сотрудникам, в котором заявил, что у OpenAI и Anthropic есть общие красные линии: отказ от массового наблюдения и разработки автоматического оружия, способного причинять смерть. Всего несколько дней назад эти компании не были связаны, а теперь внезапно объединились, чтобы противостоять давлению со стороны Пентагона. Это единство, похоже, — победа принципов этики.
Этические красные линии: Anthropic стойко, OpenAI — уступчиво
Но это единство продлилось всего несколько часов. Когда истек ультиматум, Anthropic отказалась подписывать соглашение. Компания стоимостью 380 миллиардов долларов была готова столкнуться с риском расторжения контракта на 200 миллионов долларов с Минобороны США.
Реакция Вашингтона была не коммерческой. Через час Трамп опубликовал пост в Truth Social, назвав Anthropic “лжецами-левыми” и заявив, что они пытаются поставить себя выше Конституции, шутя с жизнью американских солдат. Он потребовал от всех федеральных агентств немедленно прекратить использование технологий Anthropic.
Затем министр обороны Хегсетх включил Anthropic в список “рисков цепочки поставок безопасности” — ярлык, обычно применяемый к таким компаниям, как Huawei. Ясный посыл: все подрядчики, работающие с армией США, не должны использовать продукцию Anthropic. Anthropic объявила о намерении обратиться в суд.
В ту же ночь OpenAI — ранее придерживавшаяся аналогичной позиции — подписала соглашение с Пентагоном. Вопрос: что получила OpenAI?
Во-первых, монопольное положение: она стала поставщиком ИИ для секретной сети армии США после исключения Claude. Но также OpenAI выдвинула три условия для Пентагона: не заниматься масштабным наблюдением, не разрабатывать автономное оружие и принимать все решения, связанные с рисками, с участием человека.
Министерство обороны США согласилось.
Именно так — условия, которые Anthropic колебалась несколько недель принять, но когда их предложил другой, всего за несколько дней договорились. Однако решения не полностью совпадали. Anthropic добавила еще один уровень защиты: они считают, что текущие законы не успевают за возможностями ИИ. Например, ИИ может легально собирать и объединять данные о геолокации, истории браузинга и соцсетях, создавая эффект наблюдения, который при этом не нарушает закон. Anthropic считает, что просто писать “без наблюдения” недостаточно, необходимо устранить эти правовые пробелы.
OpenAI не настаивала на этом. Они приняли точку зрения Пентагона, что действующее законодательство достаточно. Но если вы думаете, что это просто разница в условиях, то ошибаетесь. За цифрами и контрактами скрывается идеологическая борьба.
Дэвид Сакс, “император ИИ” из Белого дома, публично раскритиковал Anthropic за развитие “прогрессивного” ИИ — за преследование политической правильности вместо эффективности. Высокопоставленный представитель Пентагона заявил СМИ, что проблема Anthropic — подчинение идеологии. xAI Илона Маска, прямой конкурент Anthropic, постоянно атакует эту компанию в X, обвиняя в “ненависти к западной цивилизации”. Интересно, что CEO Anthropic в прошлом году не присутствовал на инаугурации Трампа, а CEO OpenAI — присутствовал.
Эффект “убей курицу — испугаешь обезьяну” и будущее ИИ-компаний
Итак, подытожим происходящее. Одни и те же этические принципы, одна и та же красная линия: Anthropic, добавив еще один уровень защиты и проявив неправильную позицию, была объявлена угрозой национальной безопасности США, равной Huawei. OpenAI, пропустив один уровень, сохранила хорошие отношения с властью и получила выгодный контракт.
Это победа принципов или просто их ценовая оценка?
Военные контракты, ранее окруженные скандалами, — не впервые. В 2018 году более 400 сотрудников Google подписали петицию, а десятки уволились, протестуя против участия компании в Project Maven — проекте Пентагона по использованию ИИ для анализа видео с дронов, чтобы быстрее распознавать цели. В итоге Google вышла из проекта. Не продлила контракт — просто ушла. Победа сотрудников.
Прошло уже восемь лет. Аналогичные споры возникают снова. Но на этот раз правила игры полностью изменились.
Один американский источник сообщил мне, что с армией можно вести бизнес, но есть два запрета. Реакция правительства — исключить компанию из всей системы госзакупок. Метка “риск цепочки поставок” наносит гораздо больший урон, чем просто потеря контракта на 200 миллионов. Доход Anthropic в этом году около 14 миллиардов долларов, и этот контракт — капля в море. Но эта метка означает, что любая компания, сотрудничающая с армией США, не может использовать Claude.
Эти компании не обязаны соглашаться с позицией Пентагона. Им достаточно провести очень простую оценку рисков: продолжать использовать Claude — значит потерять госзаказы; перейти на другую модель — никаких проблем. Выбор очень прост.
Это и есть настоящий сигнал: важно, сможет ли следующая компания выдержать или нет. Они оценят последствия, стоимость сохранения этических принципов, и примут рациональное решение с точки зрения экономики. Эффект “убей курицу — испугаешь обезьяну” — устрашение других компаний через демонстрацию исключения — именно та стратегия, которая сейчас реализуется.
Обратим взгляд на ту картинку из Индии, когда все держали за руки вверх, а двое — с сжатыми кулаками. Возможно, именно так и есть настоящее состояние дел. Этические принципы компаний ИИ могут быть одинаковыми, но руки не обязательно должны быть связаны — особенно когда политики усиливают насмешки и наказания для тех, кто не подчиняется.