TikTok elimina más de 538.000 videos no autorizados generados por IA; múltiples plataformas lanzan iniciativas de gobernanza

Mensaje de Gate News, 23 de abril — TikTok anunció una aplicación integral contra el contenido generado por IA que infringe los derechos de los usuarios, revelando que ha eliminado más de 538.000 videos y ha sancionado a más de 4.000 cuentas hasta la fecha. La plataforma dará prioridad a la aplicación contra deepfakes de IA, clonación de voz, suplantación y el uso comercial no autorizado de la imagen de celebridades.

Según el informe de gobernanza de TikTok para 2026, la plataforma ha eliminado 360.000 videos relacionados con suplantación e intrusión de tendencias mediante IA, ha procesado 85.000 piezas de contenido que incluyen semejanzas faciales y clonación de voz generadas por IA no autorizadas, y ha depurado más de 30.000 piezas de contenido engañoso de “estafa romántica con IA” dirigido a usuarios de mediana edad y personas mayores, con 1.300 cuentas asociadas sancionadas. La plataforma reconoció los desafíos continuos de la industria, incluida la dificultad para identificar contenido generado por IA y las limitaciones en las capacidades de reconocimiento de voz.

El 9 de abril, WeChat anunció actualizaciones a sus estándares operativos de la plataforma pública, prohibiendo que las cuentas usen IA, scripts o herramientas automatizadas para reemplazar a creadores humanos en la producción y distribución de contenido. Las infracciones darán lugar a restricciones de tráfico, eliminación de contenido o suspensión de la cuenta. El 27 de marzo, WeChat había formalizado estas reglas, que abarcan contenido generado por IA, publicación automatizada mediante scripts y promoción de métodos automatizados de creación no humana.

Red Fruit Short Drama informó el 6 de abril que eliminó 1.718 series animadas no conformes en el primer trimestre de 2026. Tras un aumento en el uso de material de IA no autorizado, la plataforma realizó revisiones integrales de 15.000 obras, eliminó 670 producciones no conformes y expuso cuatro categorías de violaciones típicas. La plataforma destacó su compromiso de proteger el contenido original y evitar el uso no autorizado de materiales generados por IA.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Google Jules se renombra como plataforma de desarrollo de productos agentica de extremo a extremo y abre lista de espera para una nueva versión

Mensaje de Gate News, 23 de abril — El equipo de Jules de Google anunció la apertura de una lista de espera para una nueva versión del producto, reposicionando a Jules de un agente de codificación asíncrono a una plataforma de desarrollo de productos agentica de extremo a extremo. Según la descripción oficial, la plataforma mejorada lee el contexto completo del producto, determina qué debe construirse a continuación, propone soluciones y envía solicitudes de extracción. La versión anterior funcionaba como un agente de codificación asíncrono integrado con GitHub que ejecutaba tareas específicas asignadas por los usuarios y enviaba código en segundo plano. La nueva versión marca un cambio importante: en lugar de limitarse a ejecutar tareas concretas, el agente ahora comprende de forma proactiva el panorama del producto y decide de manera autónoma qué construir.

GateNewsHace29m

Perplexity 披露网络搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本上优于 GPT-5.4

Perplexity 使用 Qwen3.5 模型进行 SFT,随后使用带有 RL 的训练流程,借助多跳 QA 数据集和评分标准检查来提升搜索准确性与效率,实现了同类最佳的 FRAMES 表现。 摘要:Perplexity 的用于网络搜索代理的后训练工作流,将监督微调 (SFT) 与通过 GRPO 算法的在线强化学习 (RL) 结合在一起。监督微调用于强化指令遵循和语言一致性;强化学习阶段则用于进一步优化。RL 阶段使用专有的多跳可验证问答数据集以及基于评分标准的对话数据,以防止 SFT 漂移,并采用奖励门控以及组内效率惩罚。评估显示 Qwen3.5-397B-SFT-RL 在 FRAMES 上达到顶级表现:单次工具调用准确率 57.3%,四次调用准确率 73.9%,成本为每次查询 $0.02,在这些指标上优于 GPT-5.4 与 Claude Sonnet 4.6。定价基于 API,并不包含缓存。

GateNewshace1h

Las finanzas tradicionales acelerarán la entrada al mercado cripto, dice el economista Fu Peng

Mensaje de Gate News, 23 de abril — Fu Peng, economista jefe de Xinfire Group, compartió su perspectiva sobre la convergencia de las finanzas tradicionales y los criptoactivos durante la Cumbre de 2026 sobre Gestión Institucional de Patrimonio Digital en Hong Kong. Según Fu, la integración de las instituciones financieras tradicionales con el

GateNewshace1h

OpenAI Codex Team Fixes OpenClaw Authentication Bug, Significantly Improves Agent Behavior

OpenClaw switches from Pi to Codex harness to fix a silent authentication fallback, with two PRs addressing the bridge and fallback; post-fix, the agent shifts from shallow heartbeat polling to a full work loop, enabling progress. Abstract: OpenClaw’s Codex harness optimization addressed a critical authentication flaw that caused silent fallback to the Pi harness when using Codex with OpenAI models. Two pull requests fix the authentication bridge and prevent silent fallback, changing the runtime adapter. As a result, agent behavior evolves from shallow heartbeat polling to a full work loop that reads context, analyzes tasks, edits repositories, and verifies progress, improving continuity and visibility across heartbeats.

GateNewshace2h

Modelos de ciberseguridad de nivel armamentístico de Anthropic Mythos accedidos sin autorización: ¿cómo lo lograron?

Bloomberg informó que, mediante una autorización legal de un tercer contratista de Anthropic, un grupo privado de foro obtuvo acceso no autorizado a Mythos. Mythos es una IA defensiva para empresas, que solo se ofrece a grandes organizaciones con un riguroso proceso de revisión. El grupo utilizó el control que tenía sobre la URL del modelo para inferir la ubicación del sistema y acceder, y proporcionó capturas de pantalla como demostración, afirmando que todavía estaba en uso pero que no había malas intenciones. Anthropic está investigando y, de forma preliminar, considera que se trata de un abuso de permisos en lugar de una intrusión externa. Este caso pone de manifiesto el riesgo de confiar modelos de alta sensibilidad a la gestión de terceros, y se requiere mejorar la resiliencia de la gobernanza y los mecanismos de confianza.

ChainNewsAbmediahace2h

Moomoo? CISO? Alerta: ShinyHunters afirma haber comprometido los sistemas internos de Anthropic

Según una alerta publicada en la plataforma X el 23 de abril por el CISO de SlowMist, 23pds, el grupo de hackers ShinyHunters afirma haber comprometido sistemas internos relacionados con el modelo Anthropic Mythos y ha compartido públicamente capturas de evidencia, como el panel de gestión de usuarios, el panel de experimentos de IA y análisis del rendimiento del modelo y sus costos; sin embargo, Anthropic aún no ha emitido un comunicado oficial.

MarketWhisperhace2h
Comentar
0/400
Sin comentarios