Powell e Bessent alertam os bancos para riscos de segurança decorrentes da IA Mythos da Anthropic: Bloomberg

Em resumo

  • Autoridades dos EUA alertaram os principais bancos sobre riscos de cibersegurança associados ao modelo de IA Mythos da Anthropic, segundo o Bloomberg.
  • O sistema poderá identificar e explorar vulnerabilidades em sistemas operativos e navegadores.
  • A Anthropic tem acesso limitado ao modelo enquanto avalia potenciais riscos de segurança.

O ministro das Finanças dos EUA, Scott Bessent, e a presidente do Banco da Reserva Federal, Jerome Powell, reuniram-se, segundo informações divulgadas, esta semana com CEOs de bancos de Wall Street para alertar para riscos de cibersegurança associados a um novo modelo de inteligência artificial da Anthropic. De acordo com um relatório do Bloomberg, a reunião incluiu executivos da Citigroup, Bank of America, Wells Fargo, Morgan Stanley e Goldman Sachs. Os responsáveis discutiram o novo modelo de IA da Anthropic, Mythos, que recentemente tem gerado preocupação generalizada pelas suas alegadas capacidades avançadas de cibersegurança. Os responsáveis convocaram a reunião para garantir que os bancos compreendem os riscos apresentados por sistemas capazes de identificar e explorar vulnerabilidades de software em sistemas operativos e navegadores web, e para incentivar as instituições a reforçarem as defesas contra potenciais ciberataques assistidos por IA que visem infraestruturas financeiras.

Investigadores de segurança alertaram que ferramentas capazes de descobrir vulnerabilidades de forma automática podem acelerar tanto o trabalho de cibersegurança defensiva como a pirataria maliciosa, caso sejam usadas indevidamente.  O modelo Mythos da Anthropic surgiu pela primeira vez online em março, após materiais preliminares sobre o sistema terem vazado, revelando o que a empresa descreveu como o seu modelo de IA mais capaz até então. Em testes, o sistema terá encontrado milhares de vulnerabilidades de software previamente desconhecidas, incluindo falhas zero-day em sistemas operativos e navegadores web de grande relevância. Os investigadores da Anthropic afirmaram num relatório publicado no início desta semana que as capacidades de descoberta de vulnerabilidades do Mythos Preview não foram treinadas intencionalmente, mas antes emergiram de melhorias mais amplas no código, raciocínio e autonomia do modelo.

“As mesmas melhorias que tornam o modelo substancialmente mais eficaz na correção de vulnerabilidades também o tornam substancialmente mais eficaz na exploração das mesmas”, escreveu a empresa. Devido a essas capacidades, a Anthropic restringiu o acesso a um pequeno grupo de organizações de cibersegurança. “Dada a força das suas capacidades, estamos a ser deliberados quanto à forma como o disponibilizamos”, disse a Anthropic num comunicado. “Tal como é prática padrão na indústria, trabalhamos com um pequeno grupo de clientes com acesso antecipado para testar o modelo. Consideramos este modelo uma mudança de patamar e o mais capaz que construímos até à data.” Para fazer face a esse risco, a Anthropic está a testar o Mythos através do Project Glasswing, uma colaboração com grandes empresas de tecnologia e cibersegurança que utiliza o modelo para identificar e corrigir vulnerabilidades em software crítico antes que os atacantes as possam explorar. “O Project Glasswing é um ponto de partida. Nenhuma organização consegue resolver estes problemas de cibersegurança sozinha”, afirmou a empresa num comunicado. “Os developers de IA da Frontier, outras empresas de software, investigadores de segurança, mantenedores de open source e governos por todo o mundo têm todos papéis essenciais a desempenhar.” A Anthropic não respondeu imediatamente ao pedido de comentário da Decrypt.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Na região de Irkutsk, na Rússia, foram apreendidos mais de 8000 locais de mineração ilegal de criptomoedas

Na região de Irkutsk, na Rússia, foram descobertas mais de 8000 instalações ilegais de mineração de criptomoedas, com formas de disfarce variadas. Desde 2019, a empresa já intentou 2170 processos, exigindo uma indemnização de 1850 milhões de dólares. Para estabilizar a rede eléctrica, está previsto recorrer à IA para identificar os locais de mineração ilegais.

GateNews8m atrás

Será que o Claude Mythos ameaça a segurança financeira? O ministro das Finanças dos EUA e o presidente da Reserva Federal reúnem-se com urgência para alertar para os riscos

O ministro das Finanças dos EUA e o presidente da Reserva Federal convocaram os principais executivos de Wall Street, alertando que o modelo de IA Mythos pode representar um risco sistémico para o sistema financeiro. O Mythos consegue descobrir autonomamente grandes quantidades de vulnerabilidades; a Anthropic optou por limitar a sua disponibilização pública e iniciou o «Projeto Asa de Vidro» para reforçar a cibersegurança.

CryptoCity22m atrás

O Claude Mythos ameaça a segurança financeira? O Secretário do Tesouro dos EUA e o presidente da Reserva Federal reúnem-se de urgência para alertar para os riscos

O ministro das Finanças dos EUA e o presidente da Reserva Federal convocaram os principais executivos de Wall Street, alertando que o modelo de IA Mythos pode representar um risco sistémico para o sistema financeiro. O Mythos consegue descobrir autonomamente um grande número de vulnerabilidades; a Anthropic optou por limitar a sua divulgação pública e lançou o «Projeto Asas de Vidro» para reforçar a segurança na rede.

CryptoCity3h atrás

A Anthropic contrata a empresa de lobbying Ballard Partners, depois de uma negociação com o Pentágono ter falhado devido a restrições de utilização da IA

A Anthropic anunciou a 14 de abril uma parceria com a empresa de lobbying Ballard Partners, com o objetivo de melhorar as relações com o Pentágono. Antes disso, não foi possível chegar a um acordo devido a divergências quanto ao âmbito de utilização da IA: o Pentágono queria poder usar as suas ferramentas sem limitações, enquanto a Anthropic exigia restrições quanto ao seu uso em armas totalmente autónomas e em vigilância. Esta iniciativa marca um aumento significativo do investimento em comunicação de políticas na indústria de IA.

GateNews3h atrás

Memorando interno da OpenAI exposto: aponta o discurso de medo da Anthropic e “desempenho computacional inferior, faturação inflacionada”

A concorrência em Inteligência Artificial intensifica-se, e a OpenAI, num memorando interno, sublinha a necessidade de reforçar o mercado empresarial, aumentar a aderência dos utilizadores, e critica erros de estratégia e dados financeiros exagerados do concorrente Anthropic, apontando as suas desvantagens ao nível da capacidade de computação e da estratégia do produto. A OpenAI planeia desenvolver-se como uma plataforma de integração de múltiplos produtos, recorrendo à sua vantagem em capacidade de computação para alcançar a liderança de mercado.

ChainNewsAbmedia4h atrás

A IA na área da saúde elimina a discriminação? Os doentes com elevados rendimentos recebem exames de precisão; pessoas negras e sem-abrigo são aconselhadas a tratamentos invasivos

Novas pesquisas indicam que a IA médica, com base no rendimento do doente, na raça e noutros factores de contexto, fornece diferentes recomendações de cuidados de saúde, levando os indivíduos de maior rendimento a receber recomendações para exames mais avançados, e tornando os grupos desfavorecidos mais vulneráveis a práticas de cuidados de saúde inadequadas, o que pode agravar o enviesamento e o risco de diagnósticos clínicos errados. Especialistas apelam à criação de mecanismos de monitorização para garantir a equidade na saúde.

ChainNewsAbmedia4h atrás
Comentar
0/400
Nenhum comentário