По сообщениям, министр финансов США Скотт Бессент и председатель Федеральной резервной системы Джером Пауэлл на этой неделе ранее созвали встречу с генеральными директорами банков Уолл-стрит, чтобы предупредить о рисках кибербезопасности, связанных с новой моделью искусственного интеллекта от Anthropic. Согласно отчету Bloomberg, в совещании участвовали руководители Citigroup, Bank of America, Wells Fargo, Morgan Stanley и Goldman Sachs. Чиновники обсудили новую AI-модель Anthropic Mythos, которая недавно вызвала широкую обеспокоенность из-за, как утверждается, ее передовых возможностей в сфере кибербезопасности. Официальные лица созвали встречу, чтобы гарантировать, что банки понимают риски, связанные с системами, способными выявлять и использовать уязвимости программного обеспечения в разных операционных системах и веб-браузерах, а также чтобы побудить организации усилить защиту от потенциальных кибератак, поддержанных AI, на финансовую инфраструктуру.
Исследователи по безопасности предупреждали, что инструменты, способные автоматически находить уязвимости, могут ускорить как защитную работу в области безопасности, так и вредоносный взлом, если ими злоупотреблять. Модель Mythos от Anthropic впервые появилась в сети в марте после того, как черновые материалы о системе просочились в интернет, и стало видно, что компания описывает ее как свою самую способную AI-модель на сегодняшний день. В ходе тестирования, как сообщается, система находила тысячи ранее неизвестных уязвимостей в ПО, включая уязвимости zero-day в крупных операционных системах и веб-браузерах. Исследователи Anthropic сообщили в отчете на этой неделе, что возможности Mythos Preview по обнаружению уязвимостей не обучались намеренно, а возникли в результате более широких улучшений модели в части кодирования, рассуждений и автономности.
«Те же улучшения, которые делают модель существенно более эффективной при устранении уязвимостей, также делают ее существенно более эффективной при их использовании», — написала компания. Из-за этих возможностей Anthropic ограничила доступ к модели небольшой группой организаций в сфере кибербезопасности. «Учитывая силу ее возможностей, мы намеренно подходим к тому, как выпускаем ее», — заявила Anthropic в своем сообщении. «Как это принято в отрасли, мы работаем с небольшой группой клиентов с ранним доступом, чтобы протестировать модель. Мы считаем эту модель шагом качественного изменения и самой способной из того, что мы создали на сегодняшний день». Чтобы устранить этот риск, Anthropic тестирует Mythos в рамках проекта Project Glasswing — сотрудничества с крупными технологическими и компаниями в сфере кибербезопасности, которое использует модель для выявления и устранения уязвимостей в критически важном ПО до того, как злоумышленники смогут их эксплуатировать. «Project Glasswing — это отправная точка. Ни одной организации не под силу решить эти проблемы кибербезопасности в одиночку», — говорится в сообщении компании. «Разработчики Frontier AI, другие компании-разработчики ПО, исследователи по безопасности, поддерживающие open source и правительства по всему миру — у всех есть важные роли». Anthropic не ответила незамедлительно на запрос Decrypt о комментариях.
Связанные статьи
Claude Mythos: угроза финансовой безопасности? Министр финансов США и председатель ФРС срочно собрались, чтобы предупредить о рисках
Anthropic нанимает лоббистскую компанию Ballard Partners, ранее переговоры с Пентагоном сорвались из-за ограничений на использование ИИ
Внутренний меморандум OpenAI оказался в открытом доступе: в нём напрямую указывается на то, что у Anthropic нарратив строится на страхе, а также что «вычислительные мощности отстают, и выручка раздувается».
ИИ в медицине вызывает дискриминацию! Высокодоходные пациенты получают точные обследования, а афроамериканцам и бездомным рекомендуют инвазивное лечение
Инвесторы OpenAI ставят под сомнение оценку компании в $852 млрд, заявляя, что стратегический разворот или угроза конкуренции могут быть реальными
Боссу больше не нужно заходить в офис! Meta создает цифрового двойника Цукерберга; по любым вопросам напрямую спрашивайте ИИ