O CEO da OpenAI, Sam Altman, afirmou que os decisores políticos dos EUA devem agir já para se prepararem para a inteligência artificial avançada, alertando que a tecnologia está a passar da teoria para o uso económico diário.
Numa entrevista ao Axios, Altman disse que os sistemas de IA já tratam de tarefas de programação e investigação que antes exigiam equipas de programadores. Os modelos mais recentes, disse, irão mais longe, ajudando os cientistas a fazer descobertas importantes e permitindo que indivíduos façam o trabalho de grupos inteiros.
Essa mudança já é visível na cibersegurança, onde alguns líderes da indústria dizem que a inteligência artificial está a pender o equilíbrio a favor dos atacantes.
Charles Guillemet, diretor de tecnologia da empresa fabricante de carteiras de hardware Ledger, por exemplo, disse à CoinDesk que as ferramentas de IA estão a reduzir o custo e as competências necessárias para encontrar e explorar falhas de software. Tarefas que antes demoravam meses, como a engenharia inversa de código ou a ligação de múltiplas vulnerabilidades, podem agora ser concluídas em segundos com os prompts certos.
A indústria cripto registou mais de 1,4 mil milhões de dólares em ativos roubados ou perdidos em ataques no ano passado. Esse valor poderá continuar a crescer, sugeriu Guillemet. Além disso, os programadores estão cada vez mais a depender de código gerado por IA, o que poderá potencialmente introduzir novas falhas em escala.
A resposta, disse, exigirá defesas mais fortes, como código matematicamente verificado, dispositivos de hardware que mantenham chaves privadas offline e um reconhecimento mais amplo de que os sistemas podem falhar.
Enquanto Altman referiu que a IA poderia acelerar a descoberta de fármacos ou a ciência dos materiais, também alertou que ela pode igualmente permitir ciberataques mais poderosos e baixar a barreira para investigações biológicas prejudiciais. Tais ameaças poderão surgir no espaço de um ano, o que torna urgente a coordenação entre o governo, as empresas de tecnologia e os grupos de segurança.
“Não estamos assim tão longe de um mundo em que existam modelos open source incrivelmente capazes que são muito bons em biologia”, disse. “A necessidade de a sociedade ser resiliente a grupos terroristas que utilizem estes modelos para tentar criar novos agentes patogénicos já não é uma questão teórica.”
Outro exemplo que ele sugeriu foi um “ciberataque que abala o mundo” e que poderia ocorrer já este ano. Evitá-lo, disse, exigiria “uma quantidade tremenda de trabalho”.
Ele enquadrou as ideias de política da OpenAI como um ponto de partida, com o objetivo de impulsionar o debate sobre como gerir sistemas que aprendem rapidamente e atuam em muitos domínios. Usar IA para ajudar a defender-se destes potenciais ataques, disse, é importante.
Sobre a possível nacionalização da OpenAI, Altman afirmou que a argumentação contra assenta na necessidade de os EUA alcançarem “superinteligência” antes dos seus rivais.
“O argumento mais forte contra a nacionalização seria o de precisarmos de os EUA terem sucesso a construir superinteligência de uma forma alinhada com os valores democráticos dos Estados Unidos antes de alguém mais o fazer”, disse. “Isso provavelmente não funcionaria como um projeto governamental; acho que essa é uma coisa triste.”
Ainda assim, Altman disse que acredita que as empresas envolvidas em IA devem trabalhar em estreita colaboração com o governo dos EUA.
Tendo em conta o seu papel na OpenAI, Altman também tem um interesse financeiro em como o setor evolui. Essa posição pode influenciar a forma como ele enquadra tanto a urgência da regulamentação como o papel de empresas privadas como a OpenAI na gestão de riscos emergentes, o que poderia afetar a posição competitiva da empresa.
A energia é uma área em que ele vê progresso rápido, porque uma maior capacidade de processamento pode manter os custos baixos à medida que a procura de IA cresce.
Altman apontou também sinais iniciais de mudanças no trabalho. Um programador, em 2026, disse ele, já trabalha de forma diferente de alguém um ano antes.
A IA tornar-se-á uma espécie de utilidade, como a eletricidade, incorporada em dispositivos, enquanto o custo da inteligência básica desce e os sistemas de topo permanecem caros.
“Terás este assistente pessoal de superinteligência a funcionar na nuvem”, disse Altman. “Se o usares muito ou em níveis elevados de inteligência, terás uma fatura mais alta num mês e, se o usares menos, terás uma fatura mais baixa.”
É “incrivelmente importante que as pessoas que constroem IA sejam pessoas de elevada integridade, fiáveis.”