As autoridades reguladoras australianas emitem alertas, o aumento de denúncias de uso indevido de imagens de inteligência artificial Grok leva a uma intensificação da supervisão
A autoridade de supervisão de cibersegurança da Austrália alertou recentemente que as denúncias de uso indevido de imagens relacionadas ao chatbot de inteligência artificial Grok estão a aumentar rapidamente, especialmente no que diz respeito à geração não autorizada de imagens sexualizadas, que se tornou um ponto crítico de risco na regulamentação da inteligência artificial generativa. A agência independente de cibersegurança australiana, eSafety, indicou que, nos últimos meses, o número de denúncias relacionadas ao Grok dobrou, envolvendo múltiplos tipos de violação de imagens de menores e adultos.
A comissária de cibersegurança da Austrália, Julie Inman Grant, afirmou que algumas denúncias podem envolver materiais de exploração sexual infantil, enquanto outras estão relacionadas a abusos baseados em imagens sofridos por adultos. Ela destacou no LinkedIn que a inteligência artificial generativa está sendo cada vez mais utilizada para sexualizar e explorar outras pessoas, especialmente no caso de crianças, representando um desafio sério para a sociedade e os sistemas regulatórios. À medida que o realismo do conteúdo gerado por IA aumenta, a dificuldade de identificar e coletar provas também cresce.
O Grok foi desenvolvido pela empresa de inteligência artificial xAI, fundada por Elon Musk, e está integrado diretamente na plataforma X, permitindo aos usuários modificar e gerar imagens. Em comparação com outros modelos de IA mainstream, o Grok é posicionado como um produto mais “avançado”, capaz de gerar conteúdos que normalmente seriam rejeitados por outros modelos. Anteriormente, a xAI também lançou um modo capaz de gerar conteúdo explícito, o que se tornou um dos principais focos de atenção das autoridades reguladoras.
Julie Inman Grant destacou que, de acordo com a legislação vigente na Austrália, todos os serviços online devem tomar medidas eficazes para impedir a disseminação de materiais de exploração sexual infantil, independentemente de terem sido gerados por IA ou não. Ela enfatizou que as empresas, durante todo o ciclo de vida do desenvolvimento, implantação e operação de produtos de IA generativa, devem incorporar mecanismos de segurança, sob pena de enfrentarem investigações e ações legais.
No que diz respeito à deepfake, a Austrália adotou uma postura mais rígida. Recentemente, as autoridades reguladoras promoveram várias atualizações legislativas na tentativa de preencher lacunas na legislação existente para combater conteúdos de IA sintéticos sem consentimento. A proposta de lei apresentada pelo senador independente David Pocock estabelece multas elevadas para indivíduos e empresas que propagarem deepfakes, reforçando o efeito dissuasório.
De modo geral, os incidentes de uso indevido de imagens por IA do Grok refletem o atraso regulatório diante da rápida expansão da tecnologia de IA generativa. Com deepfakes, abusos de imagens por IA e a proteção de menores se tornando temas globais, as ações regulatórias da Austrália podem servir de referência importante para outros países, além de indicarem que a era de conformidade com a IA generativa está acelerando.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
As autoridades reguladoras australianas emitem alertas, o aumento de denúncias de uso indevido de imagens de inteligência artificial Grok leva a uma intensificação da supervisão
A autoridade de supervisão de cibersegurança da Austrália alertou recentemente que as denúncias de uso indevido de imagens relacionadas ao chatbot de inteligência artificial Grok estão a aumentar rapidamente, especialmente no que diz respeito à geração não autorizada de imagens sexualizadas, que se tornou um ponto crítico de risco na regulamentação da inteligência artificial generativa. A agência independente de cibersegurança australiana, eSafety, indicou que, nos últimos meses, o número de denúncias relacionadas ao Grok dobrou, envolvendo múltiplos tipos de violação de imagens de menores e adultos.
A comissária de cibersegurança da Austrália, Julie Inman Grant, afirmou que algumas denúncias podem envolver materiais de exploração sexual infantil, enquanto outras estão relacionadas a abusos baseados em imagens sofridos por adultos. Ela destacou no LinkedIn que a inteligência artificial generativa está sendo cada vez mais utilizada para sexualizar e explorar outras pessoas, especialmente no caso de crianças, representando um desafio sério para a sociedade e os sistemas regulatórios. À medida que o realismo do conteúdo gerado por IA aumenta, a dificuldade de identificar e coletar provas também cresce.
O Grok foi desenvolvido pela empresa de inteligência artificial xAI, fundada por Elon Musk, e está integrado diretamente na plataforma X, permitindo aos usuários modificar e gerar imagens. Em comparação com outros modelos de IA mainstream, o Grok é posicionado como um produto mais “avançado”, capaz de gerar conteúdos que normalmente seriam rejeitados por outros modelos. Anteriormente, a xAI também lançou um modo capaz de gerar conteúdo explícito, o que se tornou um dos principais focos de atenção das autoridades reguladoras.
Julie Inman Grant destacou que, de acordo com a legislação vigente na Austrália, todos os serviços online devem tomar medidas eficazes para impedir a disseminação de materiais de exploração sexual infantil, independentemente de terem sido gerados por IA ou não. Ela enfatizou que as empresas, durante todo o ciclo de vida do desenvolvimento, implantação e operação de produtos de IA generativa, devem incorporar mecanismos de segurança, sob pena de enfrentarem investigações e ações legais.
No que diz respeito à deepfake, a Austrália adotou uma postura mais rígida. Recentemente, as autoridades reguladoras promoveram várias atualizações legislativas na tentativa de preencher lacunas na legislação existente para combater conteúdos de IA sintéticos sem consentimento. A proposta de lei apresentada pelo senador independente David Pocock estabelece multas elevadas para indivíduos e empresas que propagarem deepfakes, reforçando o efeito dissuasório.
De modo geral, os incidentes de uso indevido de imagens por IA do Grok refletem o atraso regulatório diante da rápida expansão da tecnologia de IA generativa. Com deepfakes, abusos de imagens por IA e a proteção de menores se tornando temas globais, as ações regulatórias da Austrália podem servir de referência importante para outros países, além de indicarem que a era de conformidade com a IA generativa está acelerando.