O CEO da OpenAI, Sam Altman, acusou a rival Anthropic de recorrer a “marketing baseado no medo” para promover o seu modelo de IA Claude Mythos, segundo comentários feitos no podcast Core Memory, apresentado pela jornalista de tecnologia Ashlee Vance. Altman argumentou que a retórica baseada no medo foi concebida para justificar manter sistemas avançados de IA sob o controlo de “um grupo menor de pessoas”, embora tenha reconhecido que algumas preocupações de segurança são legítimas.
Altman afirmou que, embora existam preocupações válidas sobre a segurança da IA, “é claramente marketing incrível dizer: ‘Construímos uma bomba. Estamos prestes a largá-la na tua cabeça. Vamos vender-te um abrigo anti-bombas por $100 milhão. Precisais dele para correr em todo o vosso equipamento, mas apenas se nos escolherem como cliente.’” Ele referiu que “nem sempre é fácil” equilibrar as novas capacidades da IA com a crença de que a tecnologia deve ser acessível.
Altman reconheceu que “haverá preocupações de segurança legítimas”, mas sugeriu que a mensagem baseada no medo pode ser usada como arma para justificar o controlo centralizado. Ele afirmou: “se o que queres é algo do género ‘precisamos de controlo da IA, nós, porque somos as pessoas em quem se pode confiar’, acho que o marketing baseado no medo é provavelmente a forma mais eficaz de justificar isso.”
O modelo Anthropic Claude Mythos foi revelado no mês passado e tem atraído uma atenção significativa de investigadores, governos e da indústria de cibersegurança. De acordo com testes, o modelo consegue identificar autonomamente vulnerabilidades de software e executar operações cibernéticas complexas. Durante os testes, o Mythos identificou centenas de vulnerabilidades no navegador Firefox da Mozilla e demonstrou a capacidade de realizar simulações de ciberataques em múltiplas fases.
A Anthropic restringiu o acesso ao sistema através do Project Glasswing, um programa limitado que concede a empresas selecionadas — incluindo Amazon, Apple e Microsoft — a capacidade de testar as suas capacidades. A empresa também comprometeu recursos significativos para apoiar esforços de segurança de código aberto, argumentando que os defensores devem beneficiar da tecnologia antes de esta se tornar mais amplamente disponível.
A Anthropic enquadrou as capacidades do Mythos como uma ruptura defensiva — permitindo detetar mais rapidamente falhas críticas de software — e como um risco potencial de ofensiva caso seja mal utilizado. O modelo também expôs limitações nos sistemas existentes de avaliação de IA, com a Anthropic a reconhecer que muitos dos atuais benchmarks de cibersegurança já não são suficientes para medir as capacidades do seu sistema mais recente.
Apesar dos apelos, em partes do governo dos EUA, para travar a utilização da tecnologia devido às preocupações com as suas potenciais aplicações em guerra e vigilância, a Agência de Segurança Nacional (National Security Agency) terá começado a testar uma versão de pré-visualização do modelo em redes classificadas. No mercado de previsão Myriad, os utilizadores colocaram uma probabilidade de 49% de o Claude Mythos ser disponibilizado ao público em geral até 30 de junho.
Um grupo de investigadores afirmou na semana passada que conseguiu reproduzir os resultados do Mythos usando modelos disponibilizados publicamente.
Altman sugeriu que a retórica em torno de sistemas de IA altamente perigosos pode aumentar à medida que as capacidades melhoram, mas argumentou que nem todas essas alegações devem ser tomadas pelo valor nominal. Ele afirmou: “Vai haver muito mais retórica sobre modelos que são demasiado perigosos para serem libertados. Haverá também modelos muito perigosos que terão de ser libertados de formas diferentes. Tenho a certeza de que o Mythos é um excelente modelo para cibersegurança, mas acho que temos um plano com o qual nos sentimos bem sobre como colocamos este tipo de capacidade no mundo.”
Altman também desconsiderou sugestões de que a OpenAI está a reduzir o investimento em infraestruturas, dizendo que a empresa continuaria a expandir a sua capacidade de computação. Ele referiu: “Não sei de onde isso vem… as pessoas realmente querem escrever a história de recuar. Mas muito em breve vai ser outra vez, do género: ‘A OpenAI é tão irresponsável. Como é que eles estão a gastar esta quantidade absurda?’”