Кратко
- Заместитель директора ЦРУ Майкл Эллис подтвердил, что агентство подготовило свой первый в истории полностью сгенерированный ИИ аналитический доклад.
- Эллис изложил план внедрения ИИ-«коллег» в рабочие процессы аналитиков — и в течение десятилетия, офицеров, которые будут руководить командами ИИ-агентов.
- Раскрытие информации произошло на фоне того, что ЦРУ дистанцировалось от Anthropic, чьи инструменты администрация Трампа приказала федеральным агентствам поэтапно вывести из использования.
ЦРУ недавно использовало ИИ, чтобы сгенерировать разведывательный доклад без человека-аналитика, который бы им руководил. Заместитель директора Майкл Эллис подтвердил этот рубеж в четверг на мероприятии Special Competitive Studies Project, отметив переход от тихих экспериментов к публичному заявлению об амбициях.
Эллис заявил, что агентство реализовало в прошлом году более 300 ИИ-проектов, Politico сообщает. Где-то в этой цепочке машина произвела разведывательный продукт полностью самостоятельно — впервые в истории агентства.
Ближайшая дорожная карта носит более постепенный характер. Аналитики получат ИИ-«коллег», встроенных в аналитические платформы агентства, чтобы поручать подготовку черновиков, редактирование для ясности и сравнение выходных данных с стандартами методологии. В конечном счёте люди все равно будут утверждать результаты. Но цель — скорость: выпускать разведывательные продукты быстрее, чем позволяет конвейер только с участием людей.
В течение десятилетия, сказал Эллис, сотрудники ЦРУ будут управлять командами ИИ-агентов, которые будут работать как «автономные партнёры по миссиям» — гибридная модель, которая масштабирует сбор разведданных способами, с которыми в одиночку не может сравниться никакая человеческая рабочая сила.
ЦРУ движется к этому уже много лет. В 2023 году разведывательное ведомство объявило о собственном ИИ-чатботе, чтобы помогать сотрудникам разбирать данные наблюдения. К 2024 году директор ЦРУ Билл Бёрнс и глава MI6 Ричард Мур совместно раскрыли, что они активно используют генеративный ИИ для сортировки контента, поддержки аналитиков и отслеживания того, как иностранные противники применяют эту технологию. Замечания Эллиса продвигают этот публичный график существенно вперёд.
В начале этого года Anthropic отказалась ослабить ограничения, которые запрещают её инструменты для применения в сфере внутреннего наблюдения или для полностью автономных систем вооружений. Министр обороны Пит Хегсет ответил тем, что обозначил продукты Anthropic как «риск для цепочки поставок». Затем президент Трамп приказал каждому федеральному агентству поэтапно вывести из использования инструменты Anthropic. Компания юридически оспорила этот шаг.
Эллис не назвал Anthropic, но посыл прозвучал ясно. ЦРУ «не может позволить прихотям одной-единственной компании» ограничивать его использование ИИ, сказал он, и агентство активно диверсифицирует поставщиков, чтобы сохранять операционную гибкость.
Эллис также отметил, что ЦРУ удвоило объёмы разведывательной отчётности, ориентированной на технологии, отслеживая то, как противники — такие как Китай — применяют ИИ в полупроводниках, облачных вычислениях и НИОКР. Центр киберразведки агентства был повышен до центра полноценной миссии — шаг, который Эллис назвал критически важным, учитывая, что «борьба в кибербезопасности будет борьбой искусственного интеллекта».
Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к
Отказу от ответственности.
Связанные статьи
OpenAI увеличивает $4 миллиардов для развертывания совместного предприятия, оцениваемого в 10 миллиардов долларов
Согласно BlockBeats, 4 мая OpenAI привлекла более $4 миллиарда для создания нового совместного предприятия, ориентированного на помощь компаниям в адаптации его программного обеспечения с искусственным интеллектом. Предприятие, получившее название The Deployment Company, поддерживают 19 инвесторов, включая TPG Inc., Brookfield Asset Management,
GateNews43м назад
Почему одни считают, что ИИ меняет мир, а другие — что это просто очередное явление? Два диагноза от Карапати
Кархарті указал, что разрыв в восприятии ИИ связан с двумя диагнозами: 1) пользователи знакомились только с бесплатными/старыми версиями моделей и не могут отражать реальную силу самых передовых агентных моделей; 2) улучшения способностей заметны в основном в высокотехнологичных областях и при этом проявляются асимметрично. Из-за этого платящие пользователи и обычные читатели видят разные явления, что приводит к параллельным мирам и взаимным заблуждениям. Вывод для читателей на Тайване: реальное использование самых передовых моделей для выполнения производственных задач и проверка оснований выводов — единственный способ избежать того, чтобы медиамифы сбивали с пути.
ChainNewsAbmedia44м назад
Applied Digital привлекла мостовое финансирование на 300 миллионов долларов под проекты для центров обработки данных ИИ во главе с Goldman Sachs
По данным Globenewswire, Applied Digital 4 мая привлекла $300 млн в виде старшего обеспеченного мостового финансирования, организованного Goldman Sachs, чтобы ускорить развитие своих AI-центров обработки данных. Финансирование обеспечено проектными активами, может быть погашено досрочно без штрафов, и компания планирует продолжить
GateNews45м назад
Кархэпти «пусть LLM возражает сама себе»: 4 шага для противодействия мыслительным искажениям с помощью ИИ
В этой статье собраны четыре шага из методики Андрея Карпати «Пусть LLM опровергает собственные тезисы»: сначала используйте LLM, чтобы отшлифовать черновик; затем начните новый диалог — пусть она предложит контраргументы и приведёт доказательства; после этого оформите всё в виде цельной статьи с опровержением; в конце сопоставьте обе стороны и проверяемые доказательства — решение принимает человек. Напоминание: у LLM есть склонность к сикофании, не принимайте согласие за истину — рассматривайте её как генератор аргументов, а не как арбитра при вынесении вердикта; также можно устроить взаимные дебаты между двумя LLM, чтобы снизить предвзятость. Этот метод особенно ценен для создания контента в 2026 году: он повышает глубину осмысления и снижает однородность.
ChainNewsAbmedia50м назад
Сэм Альтман и Дарио Амодей слишком раздражают! Апокалиптические прогнозы об ИИ и чувство относительной обделённости заставляют американцев испытывать неприязнь к ИИ
В известном подкасте Силиконовой долины《All-In Podcast》при обсуждении индустрии ИИ прозвучало довольно резкое наблюдение: отношение американского общества к ИИ переходит в негативную сторону, и эта волна эмоций находит самое конкретное выражение в том, что в качестве главной мишени выступают дата-центры, которые ИИ-компании сейчас в срочном порядке строят по всей территории США. Источником такого неприятия могут быть как ИИ-апокалиптические настроения, страх безработицы, так и более глубокое недовольство: новая волна технологических инноваций, похоже, снова приведёт к обогащению лишь немногих, тогда как жизнь большинства людей не станет заметно лучше.
В США местные органы власти уже отменяют решения о строительстве дата-центров
Chamath Palihapitiya в эфире заявил, что проблемы, с которыми сейчас сталкивается ИИ-индустрия, связаны не только с конкуренцией моделей, капитальными затратами или нехваткой вычислительных мощностей, а с тем, что «американцы в целом всё больше и больше испытывают отвращение к этой теме — ИИ». Он отметил, что источником такого отвращения могут быть, в том числе, ИИ
ChainNewsAbmedia2ч назад
Вопросы сообщества об идеологической предвзятости в основных моделях ИИ 4 мая
По данным BlockBeats, 4 мая пользователь X Freeze из сообщества, посвящённого ИИ, задал вопрос, демонстрируют ли мейнстримные ИИ-модели, включая ChatGPT, Claude и Gemini, систематическую предвзятость, будучи менее согласованными с консервативными позициями по таким темам, как пол, иммиграция и преступность. Пользователь предположил, что как ИИ
GateNews4ч назад