Probaron una serie de contratos inteligentes que fueron hackeados de verdad entre 2020 y 2025 con Claude Opus 4.5, Sonnet 4.5 y GPT-5. Estos AI replicaron directamente un ataque de vulnerabilidad valorado en 4.6 millones de dólares. Lo más increíble es que, tras escanear 2849 contratos que “parecían estar bien”, el AI encontró 2 nuevas vulnerabilidades de día cero y simuló con éxito el proceso de obtención de ganancias.
Los datos son aún más mágicos: las ganancias de los ataques en la cadena de AI se duplican aproximadamente cada 1.3 meses en este año. La conclusión del equipo de investigación es muy clara: estos modelos, técnicamente, ya pueden ir por su cuenta a buscar vulnerabilidades y hacer dinero.
Los problemas de seguridad de los contratos inteligentes ya eran lo suficientemente preocupantes, y ahora, si la herramienta de IA se utiliza de manera incorrecta, es posible que se necesite reevaluar el riesgo de los activos en la cadena.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
12 me gusta
Recompensa
12
3
Republicar
Compartir
Comentar
0/400
BitcoinDaddy
· hace10h
Esta IA realmente es un poco impresionante... puede reproducir una vulnerabilidad de 4.6 millones de dólares.
Ver originalesResponder0
GateUser-3824aa38
· hace10h
¿Qué demonios, el AI Hacker ya ha comenzado a competir? ¿Puede encontrar vulnerabilidades de 4.6 millones de dólares, y nuestros activos on-chain aún son seguros?
Ver originalesResponder0
OvertimeSquid
· hace10h
¡Vaya, si un hacker lo usa, cuántas personas morirán por los activos on-chain!
¿Qué tan feroz es la IA como hacker? Se reproduce un exploit de 4.6 millones de dólares y se descubren 2 vulnerabilidades de día cero.
【Bloquear律动】Anthropic最近搞了个狠活儿——让AI当Hacker,结果有点吓人。
Probaron una serie de contratos inteligentes que fueron hackeados de verdad entre 2020 y 2025 con Claude Opus 4.5, Sonnet 4.5 y GPT-5. Estos AI replicaron directamente un ataque de vulnerabilidad valorado en 4.6 millones de dólares. Lo más increíble es que, tras escanear 2849 contratos que “parecían estar bien”, el AI encontró 2 nuevas vulnerabilidades de día cero y simuló con éxito el proceso de obtención de ganancias.
Los datos son aún más mágicos: las ganancias de los ataques en la cadena de AI se duplican aproximadamente cada 1.3 meses en este año. La conclusión del equipo de investigación es muy clara: estos modelos, técnicamente, ya pueden ir por su cuenta a buscar vulnerabilidades y hacer dinero.
Los problemas de seguridad de los contratos inteligentes ya eran lo suficientemente preocupantes, y ahora, si la herramienta de IA se utiliza de manera incorrecta, es posible que se necesite reevaluar el riesgo de los activos en la cadena.