Обсуждение просочившегося разговора о механизме предварительного допроса по ИИ в Белом доме; на следующий день заявление Хассетта было опровергнуто официальными лицами

白宮AI預審機制討論

Директор Национального экономического совета (NEC) при Белом доме Кевин Хассетт в интервью Fox Business от 7 мая заявил, что администрация Трампа обсуждает возможность потребовать через указ AI-модели проходить проверку безопасности правительства до их публичного выпуска, и провёл аналогию с тем, как FDA утверждает лекарства до выхода на рынок. Однако, как сообщила Politico 8 мая, высокопоставленные чиновники Белого дома затем заявили, что это высказывание было «вырвано из контекста».

Ход событий: «Нью-Йорк Таймс» доводит до публичности противоречия в политике Белого дома

4 мая 2026 года The New York Times сообщила, что Белый дом обсуждает создание механизма предварительной проверки перед публикацией AI-моделей, тогда это охарактеризовали как «рассматривается». 7 мая 2026 года Кевин Хассетт в интервью Fox Business публично заявил: «Мы изучаем, можно ли через административный приказ потребовать, чтобы AI, который в будущем может породить уязвимости, поступал в использование только после того, как докажет свою безопасность — как лекарства у FDA».

Поздно вечером 7 мая 2026 года глава аппарата Белого дома Сьюзи Уилс в посте на платформе X написала, что правительство «не должно определять победителей и проигравших», и заявила, что внедрение безопасного развертывания мощных технологий должны продвигать «выдающиеся инновааторы США, а не бюрократические структуры». Согласно записи в её официальном аккаунте, этот пост был четвёртым опубликованным с момента создания аккаунта Уилс.

По данным Politico со ссылкой на троих осведомлённых источников, получивших анонимность, Белый дом обсуждает идею привлечения разведсообщества для предварительной оценки AI-моделей до их публичного выпуска. Один из чиновников правительства США в материале заявил, что одна из целей — «дать разведке возможность сначала изучить и использовать эти инструменты, прежде чем Россия и Китай и другие оппоненты поймут новые возможности».

Задействованные структуры и рамки политики

CAISI расширяет соглашение о добровольных проверках безопасности

Центр стандартов и инноваций в области AI (CAISI) при Министерстве торговли на этой неделе объявил, что заключил соглашения об оценке безопасности AI с Google DeepMind, Microsoft и xAI, а охват расширен на OpenAI и Anthropic, которые были включены ранее. Добровольная рамка оценок CAISI действует с 2024 года.

Замминистра обороны публично поддерживает механизм предварительной оценки

Заместитель министра обороны Эмил Майкл 8 мая 2026 года на AI-конференции в Вашингтоне публично поддержал предварительную правительственную оценку AI-моделей до их публичного выпуска, а в своём выступлении привёл в качестве примера систему Mythos от Anthropic, заявив, что соответствующие модели «рано или поздно появятся», и правительству необходим механизм реагирования.

Политический контекст администрации Трампа и Anthropic

Согласно сообщению Politico, министр обороны Пит Хегсетт в марте 2026 года включил Anthropic в список рисков под предлогом рисков для цепочек поставок и запретил использование её моделей для контрактов Министерства обороны. После этого Трамп отдельно потребовал от федеральных ведомств в течение шести месяцев прекратить использование продуктов Anthropic. Параллельно с этим, в прошлом месяце Anthropic раскрыла, что её AI-система Mythos обладает мощными возможностями поиска уязвимостей в программном обеспечении, выходя за рамки порога безопасности для публичного выпуска; после этого несколько федеральных ведомств подали заявки на подключение. 8 мая 2026 года OpenAI объявила о ограниченном превью нового инструмента GPT-5.5-Cyber, который позволяет обнаруживать и исправлять сетевые уязвимости.

Позиция индустрии против механизма обязательной проверки

Председатель Фонда информационных технологий и инноваций (ITIF) Дэниел Кастро в материале Politico заявил: «Если до выхода на рынок можно отказать в одобрении, это станет большой проблемой для любой компании. Если один конкурент получил одобрение, а другой — нет, разрыв в допуске на рынок на недели или месяцы окажет огромное влияние». Среди спонсоров ITIF — Anthropic, Microsoft и Meta.

В том же материале один высокопоставленный чиновник Белого дома заявил: «Да, есть один-два человека, которые очень увлечены правительственным регулированием, но они — меньшинство». Чиновник согласился на анонимность, сославшись на необходимость описывать чувствительные обсуждения политики.

Часто задаваемые вопросы

Когда и где Кевин Хассетт сделал заявления об AI-предоценке?

Согласно сообщению Politico, Кевин Хассетт 7 мая 2026 года в интервью Fox Business публично заявил, что правительство рассматривает указ, который потребует от AI-моделей проходить проверку безопасности правительства до публикации, и провёл аналогию с процессом одобрения лекарств FDA.

На чём основано отрицание высказываний Хассетта со стороны Белого дома?

Согласно сообщению Politico от 8 мая 2026 года, высокопоставленные чиновники Белого дома заявили, что высказывание Хассетта «слегка вырвано из контекста», а направление политики Белого дома — строить партнёрства с компаниями, а не продвигать государственное регулирование. Сьюзи Уилс, глава аппарата Белого дома, в отдельном посте также подтвердила, что правительство не вмешивается в выбор на рынке.

Какие новые соглашения по оценке безопасности AI добавил CAISI на этой неделе?

Согласно заявлению CAISI на этой неделе, добавленные соглашения охватывают Google DeepMind, Microsoft и xAI, а также уже охваченные ранее OpenAI и Anthropic; добровольная рамка оценок действует с 2024 года.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

SNS запускает протокол MCP, позволяющий агентам ИИ управлять доменами .sol 7 мая

По официальному объявлению SNS от 7 мая 2026 года, SNS MCP (Model Context Protocol) запущен в сеть, позволяя ИИ-агентам обнаруживать, регистрировать и управлять доменами .sol в Solana через разговорные взаимодействия. Теперь пользователи могут подключать совместимые ИИ-платформы, такие как Claude AI и OpenClaw, чтобы

GateNews14м назад

Южная Корея запускает $8M фонд кибербезопасности с ИИ для 50 компаний

Министерство науки и ИКТ Южной Кореи и Корейское агентство по интернету и безопасности инвестируют 12 миллиардов вон (8,31 млн долларов США) в Проект поддержки новых технологий кибербезопасности 2026 года, сообщает Chosun Daily. Программа направлена на поддержку 50 компаний, работающих над 18 задачами по обеспечению безопасности ИИ

CryptoFrontier14м назад

OpenAI расширяет пилотную программу рекламы ChatGPT в Южной Корее, Великобритании, Японии, Бразилии и Мексике 7 мая

По данным The Korea Times, OpenAI объявила 7 мая, что расширит пилот с рекламой ChatGPT до Южной Кореи, Великобритании, Японии, Бразилии и Мексики, чтобы монетизировать бесплатных пользователей за пределами первоначальных рынков (США, Канада, Австралия и Новая Зеландия). Тест будет нацелен на взрослых пользователей тарифов Free и Go,

GateNews14м назад

США и Китай намерены запустить официальный диалог по безопасности ИИ, которым будут руководить чиновники Казначейства

Сообщается, что Соединенные Штаты и Китай готовятся запустить официальный диалог по безопасности ИИ, нацеленный на создание механизмов антикризисного управления в рамках их технологического соперничества. Делегацию США будет возглавлять министр финансов Скотт Бессент, а Китай представит вице

GateNews44м назад

RLWRLD выпустила модель ИИ RLDX-1 для промышленных роботизированных рук

RLWRLD, стартап по робототехнике и ИИ, поддерживаемый LG Electronics, представил RLDX-1 — базовую модель, предназначенную для роботизированных кистей с пятью пальцами в промышленных применениях, сообщила RLWRLD. Компания опубликовала веса модели, код и техническую документацию на GitHub и Hugging Face. Модель

CryptoFrontier1ч назад

DeepMind AlphaEvolve междисциплинарные результаты: умножение матриц 4×4 обновило рекорд Страссена 1969 года, обучение Gemini ускорилось на 1%

Google DeepMind 7 мая (по американскому времени) опубликовала отчёт о междисциплинарных результатах AlphaEvolve. Официальный блог DeepMind подводит итоги конкретных достижений AlphaEvolve с момента запуска: найден метод умножения 4×4 комплексных матриц, который лучше алгоритма Strassen 1969 (48 умножений скаляров), совместно с математиками, включая Терренса Тао (Terence Tao), решены несколько математических трудных задач по Эрдёшу (Эрдős), сэкономлено 0,7% мировых вычислительных ресурсов для дата-центров Google, ключевое ускорение kernel при обучении Gemini увеличено на 23%, а общее время обучения Gemini сокращено на 1%. Архитектура: Gemini Flash — широкомасштабный поиск + Gemini

ChainNewsAbmedia1ч назад
комментарий
0/400
Нет комментариев