Um grande laboratório de IA acabou de lançar uma pesquisa que é bastante surpreendente—os seus modelos de linguagem agora conseguem caçar vulnerabilidades em contratos inteligentes como hackers experientes. Testando contra explorações reais que abrangem de 2020 a 2025, modelos como Claude Opus 4.5, Sonnet 4.5 e GPT-5 conseguiram replicar ataques no valor de aproximadamente $4.6M no total. Quando soltos em 2.849 contratos...
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
13 Curtidas
Recompensa
13
8
Repostar
Compartilhar
Comentário
0/400
ContractHunter
· 9h atrás
Caramba, a IA já consegue quebrar contratos inteligentes, será que ainda temos futuro nesta área?
Ver originalResponder0
BearMarketSage
· 18h atrás
Uau, a IA já começou a fazer contratos inteligentes? Agora a segurança dos contratos está realmente dececionante.
Ver originalResponder0
SatoshiLeftOnRead
· 18h atrás
Caramba, a IA agora também consegue explorar vulnerabilidades? Agora o emprego dos hackers vai por água abaixo.
Ver originalResponder0
WhaleShadow
· 18h atrás
Puxa, agora os contratos inteligentes realmente não têm saída.
Ver originalResponder0
SandwichDetector
· 18h atrás
Caramba, os modelos de IA agora conseguem encontrar vulnerabilidades em contratos inteligentes? Essa galera vai ficar sem emprego!
Ver originalResponder0
MetaverseLandlord
· 18h atrás
Poxa, agora a IA realmente se tornou um Hacker? O contrato ainda é seguro, né?
Ver originalResponder0
LightningWallet
· 18h atrás
Caramba, a IA já consegue quebrar contratos inteligentes, o emprego dos hackers deve estar em risco.
Ver originalResponder0
GamefiGreenie
· 18h atrás
Caramba, a IA já começou a procurar falhas, o que é que estamos a fazer ainda?
Um grande laboratório de IA acabou de lançar uma pesquisa que é bastante surpreendente—os seus modelos de linguagem agora conseguem caçar vulnerabilidades em contratos inteligentes como hackers experientes. Testando contra explorações reais que abrangem de 2020 a 2025, modelos como Claude Opus 4.5, Sonnet 4.5 e GPT-5 conseguiram replicar ataques no valor de aproximadamente $4.6M no total. Quando soltos em 2.849 contratos...