Las autoridades regulatorias de Australia emiten advertencias, aumento de quejas por uso indebido de imágenes de inteligencia artificial de Grok provoca una escalada en la regulación
La autoridad de ciberseguridad de Australia anunció recientemente que las denuncias de uso indebido de imágenes relacionadas con el chatbot de inteligencia artificial Grok están aumentando rápidamente, especialmente en lo que respecta a la generación no consentida de imágenes sexualizadas, que se ha convertido en un punto clave de riesgo en la regulación de la inteligencia artificial generativa. La agencia independiente de ciberseguridad eSafety de Australia señaló que en los últimos meses el número de quejas relacionadas con Grok se ha duplicado, involucrando múltiples tipos de daños por imágenes tanto en menores como en adultos.
La comisionada de ciberseguridad de Australia, Julie Inman Grant, afirmó que algunas denuncias podrían involucrar material de explotación sexual infantil, mientras que otras están relacionadas con abusos basados en imágenes contra adultos. En LinkedIn, enfatizó que la inteligencia artificial generativa está siendo cada vez más utilizada para sexualizar y explotar a otros, especialmente en casos que involucran a menores, lo que representa un desafío serio para la sociedad y los sistemas regulatorios. A medida que la calidad del contenido generado por IA mejora, también aumenta la dificultad para identificarlo y recopilar pruebas.
Grok fue desarrollado por xAI, la compañía de inteligencia artificial de Elon Musk, y está integrado directamente en la plataforma X, permitiendo a los usuarios modificar y generar imágenes. En comparación con otros modelos de IA líderes, Grok se posiciona como un producto más “vanguardista”, capaz de generar contenido que la mayoría de los modelos suelen rechazar. Anteriormente, xAI también lanzó un modo que puede generar contenido explícito, lo cual ha sido uno de los focos de atención de las autoridades regulatorias.
Julie Inman Grant señaló que, según la legislación vigente en Australia, todos los servicios en línea deben tomar medidas efectivas para prevenir la difusión de material de explotación sexual infantil, independientemente de si estos contenidos son generados por IA o no. Enfatizó que las empresas deben incorporar mecanismos de seguridad en todo el ciclo de vida del diseño, despliegue y operación de productos de IA generativa, de lo contrario, enfrentan riesgos de investigación y cumplimiento legal.
En cuanto a los problemas de deepfake, Australia ha adoptado una postura más estricta. La autoridad reguladora ha impulsado varias actualizaciones legislativas recientes para abordar las deficiencias en las leyes existentes en la lucha contra contenidos sintéticos no consentidos. La propuesta de ley presentada por el senador independiente David Pocock establece multas elevadas para individuos y empresas que difundan contenido deepfake, con el fin de reforzar la disuasión.
En conjunto, los incidentes de uso indebido de imágenes con inteligencia artificial en Grok reflejan la problemática de la regulación rezagada frente a la rápida expansión de la tecnología de IA generativa. A medida que los deepfakes, el abuso de imágenes generadas por IA y la protección de menores se convierten en temas globales, las acciones regulatorias de Australia podrían servir como referencia importante para otros países, además de indicar que la era de la cumplimiento en IA generativa está acelerando su llegada.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Las autoridades regulatorias de Australia emiten advertencias, aumento de quejas por uso indebido de imágenes de inteligencia artificial de Grok provoca una escalada en la regulación
La autoridad de ciberseguridad de Australia anunció recientemente que las denuncias de uso indebido de imágenes relacionadas con el chatbot de inteligencia artificial Grok están aumentando rápidamente, especialmente en lo que respecta a la generación no consentida de imágenes sexualizadas, que se ha convertido en un punto clave de riesgo en la regulación de la inteligencia artificial generativa. La agencia independiente de ciberseguridad eSafety de Australia señaló que en los últimos meses el número de quejas relacionadas con Grok se ha duplicado, involucrando múltiples tipos de daños por imágenes tanto en menores como en adultos.
La comisionada de ciberseguridad de Australia, Julie Inman Grant, afirmó que algunas denuncias podrían involucrar material de explotación sexual infantil, mientras que otras están relacionadas con abusos basados en imágenes contra adultos. En LinkedIn, enfatizó que la inteligencia artificial generativa está siendo cada vez más utilizada para sexualizar y explotar a otros, especialmente en casos que involucran a menores, lo que representa un desafío serio para la sociedad y los sistemas regulatorios. A medida que la calidad del contenido generado por IA mejora, también aumenta la dificultad para identificarlo y recopilar pruebas.
Grok fue desarrollado por xAI, la compañía de inteligencia artificial de Elon Musk, y está integrado directamente en la plataforma X, permitiendo a los usuarios modificar y generar imágenes. En comparación con otros modelos de IA líderes, Grok se posiciona como un producto más “vanguardista”, capaz de generar contenido que la mayoría de los modelos suelen rechazar. Anteriormente, xAI también lanzó un modo que puede generar contenido explícito, lo cual ha sido uno de los focos de atención de las autoridades regulatorias.
Julie Inman Grant señaló que, según la legislación vigente en Australia, todos los servicios en línea deben tomar medidas efectivas para prevenir la difusión de material de explotación sexual infantil, independientemente de si estos contenidos son generados por IA o no. Enfatizó que las empresas deben incorporar mecanismos de seguridad en todo el ciclo de vida del diseño, despliegue y operación de productos de IA generativa, de lo contrario, enfrentan riesgos de investigación y cumplimiento legal.
En cuanto a los problemas de deepfake, Australia ha adoptado una postura más estricta. La autoridad reguladora ha impulsado varias actualizaciones legislativas recientes para abordar las deficiencias en las leyes existentes en la lucha contra contenidos sintéticos no consentidos. La propuesta de ley presentada por el senador independiente David Pocock establece multas elevadas para individuos y empresas que difundan contenido deepfake, con el fin de reforzar la disuasión.
En conjunto, los incidentes de uso indebido de imágenes con inteligencia artificial en Grok reflejan la problemática de la regulación rezagada frente a la rápida expansión de la tecnología de IA generativa. A medida que los deepfakes, el abuso de imágenes generadas por IA y la protección de menores se convierten en temas globales, las acciones regulatorias de Australia podrían servir como referencia importante para otros países, además de indicar que la era de la cumplimiento en IA generativa está acelerando su llegada.