Апелляционный суд оставил в силе маркировку Anthropic «риски цепочки поставок», ИИ-этика vs. национальная безопасность

4 апреля федеральный апелляционный суд США в Вашингтоне отклонил ходатайство о приостановке исполнения, оставив в силе для Министерства обороны маркировку «риска цепочки поставок» для Anthropic, отказавшись удовлетворить ее ходатайство о приостановке исполнения. Эта судебная тяжба, связанная с юридическим спором о красных линиях в сфере этики ИИ и определении национальной безопасности, пока еще не поставила точку.
(Справка: судья поддержал Anthropic и запретил Министерству обороны наказывать Claude с помощью «ярлыка риска цепочки поставок»)
(Дополнение к фону: что такое Claude? Полный разбор — стоимость, функции, Claude Code, Cowork — самый подробный гайд по Anthropic на 2026 год)

Оглавление статьи

Переключить

  • Контракт на 200 млн долларов: как он ведет к разрыву
  • Два суда — два ответа
  • Цена и ценность красных этических линий

4 апреля федеральный апелляционный суд США в Вашингтоне отклонил ходатайство о приостановке исполнения, поданное ИИ-корпорацией Anthropic, и постановил сохранить решение Министерства обороны о включении ее в категорию «риска цепочки поставок».

Аргументы суда были прямыми: государственные интересы в управлении цепочками поставок ИИ в сфере национальной безопасности имеют приоритет над финансовыми потерями, которые несет Anthropic. В прошлом эта маркировка обычно применялась к компаниям из враждебных стран или к потенциальным субъектам угроз; теперь же она легла на американского «единорога» в сфере ИИ — символический смысл очевиден.

Контракт на 200 млн долларов: как он ведет к разрыву

События начались в июле 2025 года. Anthropic и Пентагон подписали контракт на 200 млн долларов, по которому модели ИИ Claude интегрируются в интеллектуальную систему Maven, чтобы помогать в выполнении задач разведывательного анализа и идентификации целей.

Однако переговоры между сторонами в сентябре 2025 года сорвались. Anthropic настаивала на установлении двух этических красных линий: отказе применять Claude во всецело автоматизированных системах вооружения и отказе использовать его для внутреннего наблюдения. Эти две позиции вступили в коренное противоречие с ожиданиями администрации Трампа; затем Трамп через социальные сети распорядился, чтобы федеральные структуры прекратили использование продуктов Anthropic, и установил 6-месячный переходный период вывода.

С конца 2025 года — в начале 2026 года Министерство обороны официально внесло Anthropic в список рисков цепочки поставок. Эта маркировка напрямую лишила Anthropic права участвовать в государственных оборонных контрактах.

Два суда — два ответа

На данный момент этот юридический спор имеет взаимоисключающие результаты судебных решений. Федеральный суд в Сан-Франциско в конце марта ранее одобрил предварительный запрет, позволяющий Anthropic продолжать сотрудничество с не относящимися к обороне государственными структурами; но решение 4 апреля апелляционного суда США в Вашингтоне усилило позицию Министерства обороны по запрету и отказало в предоставлении любой отсрочки.

Это означает, что Anthropic сейчас оказывается в неловкой правовой «вилке»: она может сотрудничать с частью государственных подразделений, но при этом оказывается исключена из оборонных контрактов. Anthropic заявляет, что считает этот случай политической местью и нарушением конституционных гарантий, и продолжит подавать апелляции. Ускорение процедур рассмотрения станет ключевым этапом.

Цена и ценность красных этических линий

Но, согласно сообщению Electronic Engineering Album, несмотря на то что в бизнесе Anthropic понесла серьезный удар и не может участвовать в масштабных оборонных контрактах, ее образ, основанный на принципиальной этической позиции, получил позитивный отклик на рынке рядовых пользователей. Это привлекло больше корпоративных и частных пользователей, которые обеспокоены вопросами безопасности ИИ.

Влияние этого решения выходит за рамки одной-единственной компании Anthropic. Оно раскрывает более глубокое структурное противоречие: когда этические рамки разработчиков ИИ вступают в конфликт с определением национальной безопасности со стороны правительства, весы действующей правовой системы сейчас, судя по всему, склоняются в какую сторону — и уже есть предварительный ответ. Финальное постановление по этому делу окажет далеко идущие последствия и послужит важным ориентиром для того, как весь технологический сектор будет согласовывать с правительством границы использования ИИ.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

NEA изучает применение искусственного интеллекта в ядерном регулировании

Рабочая группа NEA по новым технологиям провела семинар 25—26 марта, посвященный тому, как искусственный интеллект может применяться для регуляторного надзора и внутренних операций в рамках ядерных органов власти. Резюме Семинар NEA изучал реальные приложения ИИ в ядерном регулировании, с

Cryptonews1ч назад

Китай протестирует 300+ гуманоидных роботов в пекинском полумарафоне 19 апреля

Второй робо-полумарафон в Пекине включает более 300 гуманоидных роботов из 70 команд, соревнующихся на дистанции 21 км. Подчёркивается прогресс в автономном движении: 40% устройств работают без управления. Китай доминирует на рынке гуманоидных роботов, несмотря на производственные трудности.

GateNews3ч назад

США стремятся к увеличению импорта урана из Намибии для питания ядерных установок, ориентированных на ИИ

США рассматривают увеличение импорта урана из Намибии, чтобы поддержать ядерную энергетику для центров обработки данных под ИИ, поскольку Китай доминирует в урановом секторе Намибии. Рост цен на уран возрождает интерес к добыче, несмотря на проблемы с водоснабжением в засушливом регионе.

GateNews3ч назад

Руководители OpenAI Билл Пиблз и Кевин Уилл уходят в рамках кадровой перестановки

Руководители OpenAI Билл Пиблз и Кевин Уил объявили о своем уходе — в рамках серии кадровых изменений по мере того, как компания децентрализует свою деятельность. Их уход последовал за несколькими другими громкими отставками и изменением структуры компании.

GateNews5ч назад

Zoom сотрудничает с World, чтобы добавить обнаружение дипфейков с использованием распознавания лиц

Zoom сотрудничает с World, компанией с участием Сэма Алтмана, чтобы запустить функцию, которая определяет реальных участников по сравнению с ИИ-«дипфейками» во время видеозвонков. Это направлено на борьбу с растущим мошенничеством с использованием дипфейков; предусмотрены варианты верификации для хостов и участников.

GateNews5ч назад

AI 生成的缺陷报告令 cURL 维护团队不堪重负

AI-生成的缺陷报告正在淹没 cURL 项目,提交量显著上升,导致资源承压。维护者通过限制 AI 模型访问并暂停漏洞奖励计划来应对涌入的报告。

GateNews5ч назад
комментарий
0/400
Нет комментариев