
De acordo com a CoinEdition, a 12 de maio, o grupo de Threat Intelligence do Google publicou um relatório de alerta, avisando que os atacantes já têm usado modelos de linguagem em ataques informáticos reais que estão a afetar sistemas a nível global, e confirmou que os hackers desenvolveram uma vulnerabilidade zero-day baseada em Python que pode contornar os mecanismos de segurança de autenticação multifator (2FA); o Google afirma que existe uma ligação entre as atividades em causa, ataques informáticos de nível estatal e a utilização abusiva de ferramentas de IA em redes de hackers no submundo.
De acordo com o relatório do grupo de Threat Intelligence do Google, as ferramentas de IA estão a ajudar os atacantes a melhorar as suas capacidades em quase todas as fases de um ataque, incluindo: identificar mais rapidamente vulnerabilidades de software, automatizar parte dos fluxos de ataque e melhorar técnicas de phishing (engenharia social) e de criação de malware.
O relatório regista um caso concreto: hackers usaram uma vulnerabilidade zero-day baseada em Python para contornar com sucesso a autenticação multifator (2FA); o Google explica que o ataque ainda exige credenciais de login válidas, demonstrando que a falha resulta da própria conceção do sistema, e não de um defeito técnico no software.
O relatório acrescenta ainda que os atacantes treinam os seus métodos de ataque com base em bases de dados de vulnerabilidades que incluem milhares de vulnerabilidades conhecidas e exemplos de exploração, para identificar padrões que ajudam a descobrir novas fragilidades; em simultâneo, os hackers usam IA para criar código falso, adulterar payloads eficazes e escrever scripts dinâmicos para contornar a deteção, e, em alguns casos, os sistemas de IA podem enviar instruções em tempo real para os dispositivos infetados.
De acordo com o relatório do grupo de Threat Intelligence do Google, organizações relacionadas com a China e com a Coreia do Norte estão na dianteira na adoção das referidas abordagens de ataque assistidas por IA; as técnicas incluem a criação cuidada de mensagens de prompt para furtar informação de segurança do sistema e o disfarce como especialistas em cibersegurança para fazerem varrimentos potenciais a vulnerabilidades em firmware e em dispositivos embebidos.
De acordo com a CoinEdition, o Google afirma que está a reforçar as medidas de defesa baseadas em IA: o sistema Big Sleep é usado para detetar automaticamente vulnerabilidades; o sistema CodeMender é usado para corrigir automaticamente vulnerabilidades; e o Gemini integra medidas de segurança para impedir atividades suspeitas nas contas de utilizadores.
De acordo com a reportagem da CoinEdition de 12 de maio de 2026, o relatório do grupo de Threat Intelligence do Google confirma que os hackers contornaram com sucesso a segurança de 2FA ao explorarem uma vulnerabilidade zero-day baseada em Python; o Google explica que a falha se deve à própria conceção do sistema e que o ataque só pode ser executado com credenciais de login válidas.
De acordo com o relatório do grupo de Threat Intelligence do Google, organizações relacionadas com a China e com a Coreia do Norte foram as primeiras a adotar ferramentas de IA para executar ataques cibernéticos; as técnicas incluem a criação cuidada de mensagens de prompt para furtar informação de segurança e o disfarce como especialistas em cibersegurança para detetar vulnerabilidades em firmware.
De acordo com a CoinEdition, o Google já implementou sistemas de defesa com IA como o Big Sleep (deteção automática de vulnerabilidades), o CodeMender (correção automática de vulnerabilidades) e o Gemini com medidas de segurança integradas (para bloquear atividades suspeitas nas contas).
Related News
O Google revela o primeiro caso de vulnerabilidade zero-day criada por IA: os hackers procuram contornar a 2FA para exploração em larga escala
Anthropic: O treino de textos de ficção científica leva Claude Opus 4 a uma taxa de resgate de 96%
A OpenAI lança o seu plano de cibersegurança Daybreak, com uma arquitectura em três camadas do GPT-5,5 para fazer frente à Anthropic Mythos
Os sistemas de segurança com IA da Binance evitaram perdas de burlas em cripto no valor de 10,5 mil milhões de dólares
Executivos da Google Cloud e da PayPal: o comércio com agentes de IA vai funcionar numa via de pagamentos cripto