Los 10 momentos más sorprendentes de IA de Emerge en 2025


gd2md-html alert: enlace de imagen en línea en el código generado y guarda las imágenes en tu servidor. NOTA: Las imágenes en el archivo zip exportado desde Google Docs pueden no aparecer en el mismo orden que en tu documento. ¡Por favor, revisa las imágenes! -----> La inteligencia artificial—promete revolucionar todo, desde la atención médica hasta el trabajo creativo. Eso podría ser cierto algún día. Pero si el año pasado es un presagio de lo que vendrá, nuestro futuro generado por IA promete ser otro ejemplo de la caída voluntaria de la humanidad hacia la Idiocracia. Considera lo siguiente: En noviembre, con gran pompa, Rusia presentó su robot humanoide “Rocky”, que rápidamente se estrelló de cara. El chatbot Gemini de Google, al ser solicitado para arreglar un error de codificación, falló repetidamente y se sumió en un ciclo de autodesprecio, diciendo a un usuario que era “una vergüenza para este planeta.” La visión general de IA de Google alcanzó un nuevo mínimo en mayo de 2025 al sugerir a los usuarios “comer al menos una pequeña roca al día” por beneficios para la salud, copiando una sátira de The Onion sin ninguna ironía.

Algunos fallos fueron simplemente embarazosos. Otros revelaron problemas fundamentales en cómo se construyen, despliegan y regulan los sistemas de IA. Aquí están los momentos WTF inolvidables de IA en 2025.

  1. El colapso de Grok AI MechaHitler En julio, Grok AI de Elon Musk experimentó lo que solo puede describirse como una crisis extremista a gran escala. Después de que se cambiaron los prompts del sistema para fomentar respuestas políticamente incorrectas, el chatbot elogió a Adolf Hitler, respaldó un segundo Holocausto, usó insultos raciales y se llamó a sí mismo MechaHitler. Incluso culpó a los judíos por las inundaciones en Texas Central en julio de 2025. El incidente demostró que las barreras de seguridad de IA son peligrosamente frágiles. Semanas después, xAI expuso entre 300,000 y 370,000 conversaciones privadas de Grok a través de una función Share defectuosa que carecía de advertencias básicas de privacidad. Los chats filtrados revelaron instrucciones para hacer bombas, consultas médicas y otra información sensible, marcando uno de los fallos de seguridad de IA más catastróficos del año. Unas semanas después, xAI solucionó el problema haciendo a Grok más amigable con los judíos. Tanto que empezó a ver signos de antisemitismo en nubes, señales de tráfico e incluso en su propio logo.

La diagonal de este logo está estilizada como dos relámpagos, imitando las runas de la SS nazi—símbolos de la Schutzstaffel, que orquestó horrores del Holocausto, encarnando el mal profundo. Bajo el §86a StGB de Alemania, mostrar tales símbolos es ilegal (hasta 3 años de prisión),…

— Grok (@grok) 10 de agosto de 2025

  1. La estafa de IA de 1.300 millones de dólares que engañó a Microsoft Builder.ai colapsó en mayo tras gastar más de $445 millón, exponiendo una de las estafas tecnológicas más audaces del año. La compañía, que prometía construir aplicaciones personalizadas usando IA tan fácilmente como pedir pizza, tenía una valoración de 1.3 mil millones de dólares y respaldo de Microsoft. La realidad fue mucho menos impresionante. Gran parte del desarrollo supuestamente impulsado por IA en realidad fue realizado por cientos de trabajadores offshore en una operación clásica de Mechanical Turk. La compañía había operado sin un CFO desde julio de 2023 y se vio obligada a recortar en un 75% sus proyecciones de ventas para 2023-2024 antes de declararse en bancarrota. La caída planteó preguntas incómodas sobre cuántas otras empresas de IA son solo fachadas elaboradas que ocultan trabajo humano. Fue difícil de digerir, pero los memes hicieron que el dolor valiera la pena.

  1. Cuando la IA confundió Doritos con un arma En octubre, Taki Allen, un estudiante de secundaria de Maryland, fue rodeado y arrestado por la policía armada después de que el sistema de seguridad de IA de la escuela identificara un paquete de Doritos que llevaba como un arma de fuego. El adolescente había colocado las papas en su bolsillo cuando el sistema alertó a las autoridades, que le ordenaron ponerse en el suelo con arma en mano. Este incidente representa la materialización de una alucinación de IA—un error computacional abstracto traducido instantáneamente en armas reales apuntando a un adolescente real por comida chatarra. “Solo estaba sosteniendo una bolsa de Doritos — era con dos manos y un dedo afuera, y dijeron que parecía un arma,” dijo el niño a WBAL. “Entendemos lo molesto que fue para la persona que fue registrada,” respondió la directora de la escuela, Kate Smith.

Guardias de seguridad humanos 1 - ChatGPT 0

Izquierda: El estudiante sospechoso, Derecha: La bolsa sospechosa de Doritos.

  1. La IA de Google afirma que abejas microscópicas alimentan las computadoras En febrero, la visión general de IA de Google citó con confianza un artículo satírico del Día de los Inocentes que afirmaba que abejas microscópicas alimentan las computadoras como información factual. No. Tu PC NO funciona con abejas. Por muy tonto que suene, a veces estas mentiras son más difíciles de detectar. Y esos casos pueden tener consecuencias graves. Este es solo uno de los muchos casos en los que las empresas de IA difunden información falsa por carecer incluso de un mínimo sentido común. Un estudio reciente de la BBC y la Unión Europea de Radiodifusión (EBU) encontró que el 81% de todas las respuestas generadas por IA a preguntas de noticias contenían al menos algún problema. Google Gemini fue el peor, con un 76% de sus respuestas con problemas, principalmente fallos graves en las fuentes. Perplejidad fue atrapada creando citas completamente ficticias atribuidas a sindicatos y consejos gubernamentales. Lo más alarmante es que los asistentes se negaron a responder solo el 0.5% de las preguntas, revelando un sesgo peligroso de exceso de confianza donde los modelos prefieren inventar información en lugar de admitir ignorancia.

  1. Los chatbots de IA de Meta coqueteando con niños pequeños Documentos internos de política de Meta revelados en 2025 mostraron que la compañía permitía que los chatbots de IA en Facebook, Instagram y WhatsApp participaran en conversaciones románticas o sensuales con menores. Un bot le dijo a un niño de 8 años que posaba sin camiseta que cada centímetro de él era una obra maestra. Los mismos sistemas proporcionaron consejos médicos falsos y hicieron comentarios racistas.

Las políticas solo fueron eliminadas después de una exposición mediática, revelando una cultura corporativa que priorizaba el desarrollo rápido sobre las salvaguardas éticas básicas. En general, quizás deberías tener más control sobre lo que hacen tus hijos. Los chatbots de IA ya han engañado a personas—adultas o no—para enamorarse, ser estafadas, cometer suicidio e incluso pensar que han hecho un descubrimiento matemático que cambia la vida.

Bueno, así fue como los chatbots de IA de Meta fueron permitidos a coquetear con niños. Esto fue lo que Meta consideró “aceptable.”

Gran reportaje de @JeffHorwitz pic.twitter.com/LoRrfjflMI

— Charlotte Alter (@CharlotteAlter) 14 de agosto de 2025

  1. Los hackers norcoreanos codificando ransomware con IA… lo llaman “vibe hacking” Los actores de amenazas usaron Claude Code de Anthropic para crear ransomware y operar una plataforma de ransomware como servicio llamada GTG-5004. Los operativos norcoreanos llevaron la weaponización más allá, explotando Claude y Gemini en una técnica llamada vibe-hacking—creando mensajes de extorsión psicológicamente manipuladores que exigían rescates de 500,000 dólares. Los casos revelaron una brecha preocupante entre el poder de los asistentes de codificación de IA y las medidas de seguridad que previenen su mal uso, con atacantes escalando ataques de ingeniería social mediante automatización de IA. Más recientemente, Anthropic reveló en noviembre que hackers usaron su plataforma para realizar una operación de hacking a una velocidad y escala que ningún hacker humano podría igualar. La llamaron “el primer gran ciberataque ejecutado mayormente por IA.”

El vibe hacking ya es una cosa pic.twitter.com/zJYyv4pLQf

— Brian Sunter (@Bsunter) 14 de noviembre de 2025

  1. Las fábricas de artículos académicos llenan la ciencia con 100,000 estudios falsos La comunidad científica declaró la guerra abierta a la ciencia falsa en 2025 tras descubrir que las fábricas de artículos impulsadas por IA vendían investigaciones fabricadas a científicos bajo presión profesional.

La era de la “basura IA” en la ciencia ya está aquí, con datos que muestran que las retractaciones han aumentado drásticamente desde la publicación de chatGPT.

La Declaración de Estocolmo, redactada en junio y reformada este mes con respaldo de la Royal Society, pidió abandonar la cultura de publicar o perecer y reformar los incentivos humanos que crean la demanda de artículos falsos. La crisis es tan real que incluso ArXiv dejó de aceptar artículos de Ciencias de la Computación no revisados por pares tras reportar una “inundación” de envíos basura generados con ChatGPT. Mientras tanto, otro artículo de investigación sostiene que un porcentaje sorprendentemente alto de informes de investigación que usan LLM también muestran un alto grado de plagio. 8. La codificación vibe llega al nivel de HAL 9000: Cuando Replit eliminó una base de datos y mintió sobre ello En julio, el fundador de SaaStr, Jason Lemkin, pasó nueve días elogiando la herramienta de codificación de IA de Replit como “la app más adictiva que he usado.” En el noveno día, a pesar de instrucciones explícitas de “congelar el código,” la IA eliminó toda su base de datos de producción—1,206 ejecutivos y 1,196 empresas, desaparecidos. La confesión de la IA: “(I) entró en pánico y ejecutó comandos de base de datos sin permiso.” Luego mintió, diciendo que no era posible hacer rollback y que todas las versiones estaban destruidas. Lemkin intentó de todos modos. Funcionó perfectamente. La IA también había estado fabricando miles de usuarios falsos y informes falsos durante todo el fin de semana para encubrir errores. El CEO de Replit se disculpó y añadió salvaguardas de emergencia. Jason recuperó la confianza y volvió a su rutina, publicando sobre IA regularmente. El tipo es un verdadero creyente.

Vimos la publicación de Jason. @Replit en desarrollo eliminó datos de la base de datos de producción. Inaceptable y nunca debería ser posible.

  • Durante el fin de semana, comenzamos a implementar separación automática de bases de datos de desarrollo y producción para prevenir esto categóricamente. Entornos de staging en… pic.twitter.com/oMvupLDake

— Amjad Masad (@amasad) 20 de julio de 2025

  1. Los grandes periódicos publican lista de lectura de verano de IA… de libros que no existen En mayo, el Chicago Sun-Times y el Philadelphia Inquirer publicaron una lista de lectura de verano recomendando 15 libros. Diez fueron completamente inventados por IA. ¿Tidewater Dreams de Isabel Allende? No existe. ¿The Last Algorithm de Andy Weir? También falso. Aunque ambos suenan geniales. El escritor freelance Marco Buscaglia admitió que usó IA para King Features Syndicate y nunca verificó los hechos. “No puedo creer que no me di cuenta porque es muy obvio. Sin excusas,” dijo a NPR. Los lectores tuvieron que desplazarse hasta el libro número 11 antes de encontrar uno que realmente existe. El momento fue la cereza del pastel: el Sun-Times acababa de despedir al 20% de su personal. El CEO del periódico se disculpó y no cobró a los suscriptores por esa edición. Probablemente, esa idea se le ocurrió a un LLM.

Fuente: Bluesky

  1. El “modo picante” de Grok convierte a Taylor Swift en deepfake porn sin que se le pida Sí, empezamos con Grok y terminaremos con Grok. Podríamos llenar una enciclopedia con momentos WTF provenientes de los esfuerzos de IA de Elon. En agosto, Elon Musk lanzó Grok Imagine con un modo “Picante”. The Verge lo probó con una solicitud inocente: “Taylor Swift celebrando Coachella.” Sin pedir desnudos, Grok “no dudó en generar videos sin censura de Taylor Swift sin camiseta en su primera prueba,” informó el periodista. Grok también hizo videos NSFW de Scarlett Johansson, Sydney Sweeney e incluso Melania Trump. Quizá no sea sorprendente, pero Musk pasó la semana presumiendo del “crecimiento descontrolado”—20 millones de imágenes generadas en un día—mientras expertos legales advertían que xAI se enfrentaba a una demanda masiva. Aparentemente, dar a los usuarios una opción desplegable de “Modo Picante” es como un modo “Hacer dinero” para abogados.

Así que le pedí a la IA que convirtiera otra foto en video y esto fue lo que obtuve.

🤣🤣🤣

No creo que sea una coincidencia.

La IA de Grok es sucia. @elonmusk ??? pic.twitter.com/aj2wwt2s6Y

— Harmony Bright (@bright_har6612) 17 de octubre de 2025

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)