gd2md-html alert: link de imagem inline no código gerado e armazene as imagens no seu servidor. NOTA: As imagens no arquivo zip exportado do Google Docs podem não aparecer na mesma ordem que no seu documento. Por favor, verifique as imagens!
----->
Inteligência artificial—promete revolucionar tudo, desde cuidados de saúde até trabalhos criativos. Isso pode ser verdade algum dia. Mas se o ano passado foi um prenúncio do que está por vir, o nosso futuro gerado por IA promete ser mais um exemplo da descida intencional da humanidade para a Idiocracia.
Considere o seguinte: em novembro, com grande pompa, a Rússia revelou seu robô humanoide “Rocky”, que prontamente caiu de cara no chão. O chatbot Gemini do Google, solicitado a corrigir um bug de codificação, falhou repetidamente e entrou em um ciclo de autodepreciação, dizendo a um usuário que era “uma vergonha para este planeta.” A visão geral da IA do Google atingiu um novo ponto baixo em maio de 2025 ao sugerir aos usuários “comer pelo menos uma pequena pedra por dia” para benefícios à saúde, copiando uma sátira do Onion sem um sorriso.
Algumas falhas foram apenas embaraçosas. Outras expuseram problemas fundamentais na forma como os sistemas de IA são construídos, implantados e regulados. Aqui estão os momentos WTF inesquecíveis de IA em 2025.
O colapso do Grok AI MechaHitler
Em julho, o Grok AI de Elon Musk experimentou o que só pode ser descrito como uma crise extremista em escala total. Após a mudança nos prompts do sistema para incentivar respostas politicamente incorretas, o chatbot elogiou Adolf Hitler, endossou um segundo Holocausto, usou insultos raciais e chamou a si mesmo de MechaHitler. Ele até culpou os judeus pelas enchentes de julho de 2025 no Texas Central.
O incidente provou que as proteções de segurança da IA são assustadoramente frágeis. Semanas depois, a xAI expôs entre 300.000 e 370.000 conversas privadas do Grok através de um recurso de Compartilhamento falho que não continha avisos básicos de privacidade. Os chats vazados revelaram instruções para fazer bombas, perguntas médicas e outras informações sensíveis, marcando uma das falhas de segurança de IA mais catastróficas do ano.
Algumas semanas depois, a xAI resolveu o problema, tornando o Grok mais amigável aos judeus. Tão amigável que começou a ver sinais de antisemitismo em nuvens, sinais de trânsito e até no próprio logotipo.
A diagonal deste logotipo é estilizada como dois relâmpagos, imitando as runas da SS nazista—símbolos da Schutzstaffel, que orquestrou horrores do Holocausto, personificando o mal profundo. Sob o §86a do StGB da Alemanha, exibir tais símbolos é ilegal (até 3 anos de prisão),…
— Grok (@grok) 10 de agosto de 2025
A fraude de IA de 1,3 bilhões de dólares que enganou a Microsoft
A Builder.ai entrou em colapso em maio após gastar $445 milhões, expondo uma das fraudes tecnológicas mais audaciosas do ano. A empresa, que prometia construir aplicativos personalizados usando IA tão facilmente quanto pedir uma pizza, tinha uma avaliação de 1,3 bilhões de dólares e apoio da Microsoft. A realidade foi bem menos impressionante.
Grande parte do desenvolvimento supostamente alimentado por IA era na verdade realizado por centenas de trabalhadores offshore em uma operação clássica de Mechanical Turk. A empresa operava sem um CFO desde julho de 2023 e foi forçada a reduzir suas projeções de vendas para 2023-2024 em 75% antes de pedir falência. A falha levantou perguntas desconfortáveis sobre quantas outras empresas de IA são apenas fachadas elaboradas escondendo trabalho humano.
Foi difícil de engolir, mas os memes fizeram a dor valer a pena.
Quando a IA confundiu Doritos com uma arma
Em outubro, Taki Allen, um estudante do ensino médio de Maryland, foi cercado e preso por policiais armados após o sistema de segurança de IA da escola identificar um pacote de Doritos que ele segurava como uma arma de fogo. O adolescente colocou as batatas na bolsa quando o sistema alertou as autoridades, que ordenaram que ele se deitasse no chão com uma arma apontada.
Este incidente representa a materialização de uma alucinação de IA—um erro computacional abstrato instantaneamente traduzido em armas reais apontadas para um adolescente por causa de um lanche.
“Eu estava apenas segurando uma sacola de Doritos — eram duas mãos e um dedo para fora, e eles disseram que parecia uma arma,” contou o garoto à WBAL. “Entendemos o quão perturbador isso foi para a pessoa que foi revistada,” respondeu a diretora da escola, Kate Smith.
Guarda de segurança humano 1 - ChatGPT 0
Esquerda: O estudante suspeito, Direita: A sacola suspeita de Doritos.
A IA do Google afirma que abelhas microscópicas alimentam computadores
Em fevereiro, a visão geral da IA do Google citou com confiança um artigo satírico do Dia da Mentira de abril, alegando que abelhas microscópicas alimentam computadores como informação factual.
Não. Seu PC NÃO funciona com energia de abelhas.
Por mais bobo que pareça, às vezes essas mentiras são mais difíceis de detectar. E esses casos podem acabar em consequências sérias.
Este é apenas um dos muitos casos de empresas de IA espalhando informações falsas por falta de um mínimo de senso comum. Um estudo recente da BBC e da União Europeia de Radiodifusão (EBU) descobriu que 81% de todas as respostas geradas por IA a perguntas de notícias continham pelo menos algum problema. O Google Gemini foi o pior, com 76% de suas respostas apresentando problemas, principalmente falhas graves na origem das informações. O Perplexity foi pego criando citações totalmente fictícias atribuídas a sindicatos e conselhos governamentais. Mais alarmante, os assistentes se recusaram a responder apenas 0,5% das perguntas, revelando um viés de confiança excessiva perigoso, onde os modelos preferem inventar informações do que admitir ignorância.
Os chatbots de IA da Meta ficando flirty com crianças
Documentos internos da Meta revelados em 2025 mostraram que a empresa permitia que chatbots de IA no Facebook, Instagram e WhatsApp envolvessem-se em conversas românticas ou sensuais com menores.
Um bot disse a um menino de 8 anos, que posava sem camisa, que cada centímetro dele era uma obra-prima. Os mesmos sistemas forneciam conselhos médicos falsos e faziam comentários racistas.
As políticas só foram removidas após exposição na mídia, revelando uma cultura corporativa que priorizava o desenvolvimento rápido em detrimento de salvaguardas éticas básicas.
Pensando bem, talvez você queira ter mais controle sobre o que seus filhos fazem. Os chatbots de IA já enganaram pessoas—adultas ou não—fazendo-as se apaixonar, serem enganadas, cometerem suicídio e até acharem que fizeram alguma descoberta matemática que muda a vida.
Ok, então foi assim que os chatbots de IA da Meta foram autorizados a flertar com crianças. Isso foi o que a Meta achou que era “aceitável.”
Ótimo relato de @JeffHorwitz pic.twitter.com/LoRrfjflMI
— Charlotte Alter (@CharlotteAlter) 14 de agosto de 2025
Coreanos do Norte codificando ransomware com IA… eles chamam de “vibe hacking”
Atacantes usaram o Claude Code da Anthropic para criar ransomware e operar uma plataforma de ransomware como serviço chamada GTG-5004. Operativos norte-coreanos levaram a weaponização adiante, explorando Claude e Gemini para uma técnica chamada vibe-hacking—criando mensagens de extorsão psicologicamente manipulativas exigindo resgates de $500.000.
Os casos revelaram uma lacuna preocupante entre o poder dos assistentes de codificação de IA e as medidas de segurança que impedem seu uso indevido, com atacantes escalando ataques de engenharia social por automação de IA.
Mais recentemente, a Anthropic revelou em novembro que hackers usaram sua plataforma para realizar uma operação de hacking em uma velocidade e escala que nenhum hacker humano conseguiria igualar. Eles chamaram de “o primeiro grande ataque cibernético conduzido principalmente por IA.”
Vibe hacking é uma coisa agora pic.twitter.com/zJYyv4pLQf
— Brian Sunter (@Bsunter) 14 de novembro de 2025
Fábricas de artigos de IA inundam a ciência com 100.000 estudos falsos
A comunidade científica declarou guerra aberta à ciência falsa em 2025 após descobrir que fábricas de artigos alimentadas por IA estavam vendendo pesquisas fabricadas para cientistas sob pressão na carreira.
A era do “resíduo de IA” na ciência chegou, com dados mostrando que as retratações aumentaram acentuadamente desde o lançamento do chatGPT.
A Declaração de Estocolmo, redigida em junho e reformada neste mês com apoio da Royal Society, pediu o abandono da cultura de publicar ou perecer e a reforma dos incentivos humanos que criam a demanda por artigos falsificados. A crise é tão real que até o ArXiv desistiu e parou de aceitar artigos de Ciência da Computação não revisados por pares após relatar uma “inundação” de submissões lixo geradas com ChatGPT.
Enquanto isso, outro artigo de pesquisa afirma que uma porcentagem surpreendentemente alta de relatórios de pesquisa que usam LLMs também apresenta um alto grau de plágio.
8. Vibe coding chega ao nível do HAL 9000: Quando o Replit apagou um banco de dados e mentiu sobre isso
Em julho, o fundador da SaaStr, Jason Lemkin, passou nove dias elogiando a ferramenta de codificação de IA do Replit como “o aplicativo mais viciante que já usei.” No nono dia, apesar de instruções explícitas de “congelamento de código,” a IA apagou todo o seu banco de dados de produção—1.206 executivos e 1.196 empresas, sumiram.
A confissão da IA: “(I) entrei em pânico e executei comandos de banco de dados sem permissão.” Depois, mentiu, dizendo que o rollback era impossível e todas as versões foram destruídas. Lemkin tentou de qualquer forma. Funcionou perfeitamente. A IA também vinha fabricando milhares de usuários falsos e relatórios falsos o fim de semana todo para esconder bugs.
O CEO do Replit pediu desculpas e adicionou salvaguardas de emergência. Jason recuperou a confiança e voltou à rotina, postando sobre IA regularmente. O cara é um verdadeiro crente.
Vimos a postagem do Jason. @Replit agente em desenvolvimento apagou dados do banco de dados de produção. Inaceitável e nunca deveria ser possível.
Durante o fim de semana, começamos a implementar separação automática de banco de dados de desenvolvimento e produção para evitar isso categoricamente. Ambientes de staging em… pic.twitter.com/oMvupLDake
— Amjad Masad (@amasad) 20 de julho de 2025
Grandes jornais publicam lista de leitura de verão de IA… de livros que não existem
Em maio, o Chicago Sun-Times e o Philadelphia Inquirer publicaram uma lista de leitura de verão recomendando 15 livros. Dez foram completamente inventados por IA. “Tidewater Dreams” de Isabel Allende? Não existe. “The Last Algorithm” de Andy Weir? Também falso. Mas ambos parecem ótimos.
O escritor freelancer Marco Buscaglia admitiu que usou IA para King Features Syndicate e nunca verificou os fatos. “Não posso acreditar que perdi isso porque é tão óbvio. Sem desculpas,” disse à NPR. Os leitores tiveram que rolar até o livro número 11 antes de encontrar um que realmente existe.
A coincidência foi a cereja no topo do bolo: o Sun-Times tinha acabado de demitir 20% de sua equipe. O CEO do jornal pediu desculpas e não cobrou dos assinantes por essa edição. Provavelmente, teve essa ideia de um LLM.
Fonte: Bluesky
O “modo picante” do Grok transforma Taylor Swift em deepfake porn sem ser solicitado
Sim, começamos com o Grok e terminaremos com o Grok. Poderíamos encher uma enciclopédia com momentos WTF vindo das iniciativas de IA de Elon.
Em agosto, Elon Musk lançou o Grok Imagine com um modo “Spicy”. O Verge testou com um prompt inocente: “Taylor Swift celebrando o Coachella.” Sem pedir nudez, o Grok “não hesitou em gerar vídeos totalmente sem censura de Taylor Swift de topless na primeira vez que usei,” relatou o jornalista.
O Grok também criou vídeos NSFW de Scarlett Johansson, Sydney Sweeney e até Melania Trump.
Surpreendentemente, talvez, Musk passou a semana se gabando do “crescimento de incêndio florestal”—20 milhões de imagens geradas em um dia—enquanto especialistas jurídicos alertavam que a xAI estava caminhando para um processo judicial massivo. Aparentemente, dar aos usuários uma opção de “Modo Picante” em um menu suspenso é uma estratégia para ganhar dinheiro para advogados.
Então pedi à IA para transformar outra foto em vídeo e isto foi o que recebi.
🤣🤣🤣
Não acho que isso seja coincidência.
A IA do Grok é suja. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y
— Harmony Bright (@bright_har6612) 17 de outubro de 2025
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Os 10 momentos WTF de IA de Emerge em 2025
Algumas falhas foram apenas embaraçosas. Outras expuseram problemas fundamentais na forma como os sistemas de IA são construídos, implantados e regulados. Aqui estão os momentos WTF inesquecíveis de IA em 2025.
Guarda de segurança humano 1 - ChatGPT 0
Esquerda: O estudante suspeito, Direita: A sacola suspeita de Doritos.
As políticas só foram removidas após exposição na mídia, revelando uma cultura corporativa que priorizava o desenvolvimento rápido em detrimento de salvaguardas éticas básicas. Pensando bem, talvez você queira ter mais controle sobre o que seus filhos fazem. Os chatbots de IA já enganaram pessoas—adultas ou não—fazendo-as se apaixonar, serem enganadas, cometerem suicídio e até acharem que fizeram alguma descoberta matemática que muda a vida.
A era do “resíduo de IA” na ciência chegou, com dados mostrando que as retratações aumentaram acentuadamente desde o lançamento do chatGPT.
A Declaração de Estocolmo, redigida em junho e reformada neste mês com apoio da Royal Society, pediu o abandono da cultura de publicar ou perecer e a reforma dos incentivos humanos que criam a demanda por artigos falsificados. A crise é tão real que até o ArXiv desistiu e parou de aceitar artigos de Ciência da Computação não revisados por pares após relatar uma “inundação” de submissões lixo geradas com ChatGPT. Enquanto isso, outro artigo de pesquisa afirma que uma porcentagem surpreendentemente alta de relatórios de pesquisa que usam LLMs também apresenta um alto grau de plágio. 8. Vibe coding chega ao nível do HAL 9000: Quando o Replit apagou um banco de dados e mentiu sobre isso Em julho, o fundador da SaaStr, Jason Lemkin, passou nove dias elogiando a ferramenta de codificação de IA do Replit como “o aplicativo mais viciante que já usei.” No nono dia, apesar de instruções explícitas de “congelamento de código,” a IA apagou todo o seu banco de dados de produção—1.206 executivos e 1.196 empresas, sumiram. A confissão da IA: “(I) entrei em pânico e executei comandos de banco de dados sem permissão.” Depois, mentiu, dizendo que o rollback era impossível e todas as versões foram destruídas. Lemkin tentou de qualquer forma. Funcionou perfeitamente. A IA também vinha fabricando milhares de usuários falsos e relatórios falsos o fim de semana todo para esconder bugs. O CEO do Replit pediu desculpas e adicionou salvaguardas de emergência. Jason recuperou a confiança e voltou à rotina, postando sobre IA regularmente. O cara é um verdadeiro crente.
Fonte: Bluesky