'Momento de Perigo': CEO da Anthropic alerta para janela de risco cibernético enquanto IA descobre falhas de software

Resumidamente

  • A Anthropic afirma que a sua IA descobriu dezenas de milhares de vulnerabilidades de software.
  • O CEO Dario Amodei alertou que há uma janela de 6 a 12 meses para as corrigir.
  • Os críticos dizem que os riscos podem estar exagerados, mesmo com o aumento das preocupações de segurança.

Uma discussão entre o CEO da Anthropic, Dario Amodei, e o CEO do JPMorgan Chase, Jamie Dimon, na terça-feira, focou na crescente ameaça de cibersegurança representada pela inteligência artificial, que identifica vulnerabilidades mais rapidamente do que as organizações conseguem corrigi-las. No evento de quase duas horas ligado ao avanço da Anthropic nos serviços financeiros, onde revelou agentes de IA para tarefas como apresentações, revisão de lucros e trabalho de conformidade, Amodei afirmou que pode haver uma janela de seis a 12 meses para resolver dezenas de milhares de falhas descobertas pelo modelo Mythos da empresa, antes que capacidades semelhantes se tornem mais amplamente disponíveis. “O perigo é apenas um aumento enorme na quantidade de vulnerabilidades, na quantidade de violações, no dano financeiro causado por ransomware em escolas, hospitais, sem falar nos bancos,” disse Amodei.

As últimas declarações de Amodei seguem testes anteriores com a Mozilla, quando uma versão inicial do Mythos identificou 271 vulnerabilidades no navegador Firefox em uma única passagem, mostrando como a IA pode escanear grandes bases de código muito mais rápido do que pesquisadores humanos.  A Anthropic afirmou que o modelo pode descobrir milhares de fraquezas anteriormente desconhecidas em softwares amplamente utilizados. Muitas permanecem não divulgadas porque ainda não foram corrigidas, deixando falhas não resolvidas. “Se anunciarmos algo sem que esteja corrigido, os maus atores irão explorá-lo,” disse Amodei.

Em testes controlados, o Mythos completou simulações de ataques de rede em múltiplas etapas sem intervenção humana, demonstrando a capacidade de passar de identificar fraquezas para explorá-las. A Anthropic restringiu o modelo a um pequeno grupo de parceiros sob o Projeto Glasswing, com o objetivo de corrigir vulnerabilidades antes que ferramentas semelhantes se tornem amplamente disponíveis. Pesquisadores mostraram que elementos da capacidade do Mythos podem ser reproduzidos usando modelos existentes e técnicas de código aberto, sugerindo que ferramentas semelhantes poderiam se espalhar mais rapidamente do que o esperado. Os avisos têm gerado ceticismo dentro da indústria. Em abril, o CEO da OpenAI, Sam Altman, afirmou que as preocupações sobre o Mythos podem estar exageradas e sugeriu que a Anthropic está usando “marketing baseado no medo” para enquadrar os riscos e justificar a limitação do acesso à tecnologia. “Você pode justificar isso de várias maneiras, e algumas delas são reais, como preocupações legítimas de segurança,” disse Altman. “Mas se o que você quer é algo como ‘precisamos de controle da IA, só nós, porque somos as pessoas confiáveis,’ acho que o marketing baseado no medo é provavelmente a maneira mais eficaz de justificar isso.” Mesmo com essa resistência, apesar de uma disputa pública com a Anthropic, o governo dos EUA estaria usando o Claude Mythos para escanear redes classificadas em busca de vulnerabilidades e testar suas capacidades de cibersegurança, segundo Axios. Embora ele não tenha abordado a batalha legal em andamento, Amodei afirmou que a Anthropic é “benéfica para este país.” “Acredito que a visão da Anthropic é a mesma de sempre. Em termos de politização, este é o ponto que mencionei sobre ser eficiente, sistemático e justo para todos,” disse Amodei. “O objetivo das leis e de não fazer as coisas de forma improvisada é que todas as empresas sejam, pelo menos em princípio—sei que na prática é mais complicado—tratadas da mesma maneira, e devemos aspirar a isso mesmo que nunca vá acontecer perfeitamente assim.” Amodei enquadrou o momento como uma janela estreita para ação, alertando que a rapidez com que as organizações respondem pode determinar se os riscos aumentam ou são controlados.

“Este é um momento de perigo onde, se respondermos corretamente, e acho que começamos a dar os primeiros passos, podemos ter um mundo melhor do outro lado,” disse Amodei. “Existem apenas alguns bugs para encontrar.”

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar