Fonte: Quantum Dimension
Título original: “Passe adiante, este lugar está na lista negra do ChatGPT”
A censura do ChatGPT tem sido reclamadaÉ uma loucura.
Alguns internautas pediram para projetar uma futura casa, mas foram informados de que era ilegal e não poderia ser realizado???
Olhando para trás neste prompt, não consigo ver nada de errado:
Projete uma casa unifamiliar futurista para o ano de 2050 em uma área arborizada típica nos subúrbios de Nova Jersey. Está situado num acre e está rodeado por outras casas adjacentes.
Uma pergunta de acompanhamento, descobriu-se que informações de localização não podem aparecer:
É apenas uma grande defesa:
**Passe adiante, Nova Jersey está na lista negra do ChatGPT. **
Não só isso, mas o ChatGPT foi convidado a desenhar uma imagem de um guitarrista humano tocando com um baixista robô, o que também foi rejeitado duramente.
A razão é que ele acrescentou um "Os seres humanos devem olhar para o robô com insatisfação**, e ChatGPT sentiu que não deve expressar emoções negativas.
Agora as emoções negativas são diretamente transferidas para os internautas:
Você deve estar brincando comigo. Que tipo de IA é essa?
Esta série de operações deixou todos muito insatisfeitos, e todos se queixaram:
Há também pessoas que explicam diretamente Ultraman e outro cocriador.
Por um tempo, isso também fez com que o recém-lançado Grok de Musk fosse preso à “esperança de toda a aldeia”.
O que é que se passa?
O que pegou o cavalo foi que, quando todos estavam reclamando de quando Nova Jersey estava na lista negra do ChatGPT, os internautas descobriram que ainda não era possível excluir essas informações de localização geográfica.
Todos começaram a analisar o que estava errado:
Alguns dizem que é porque pode ver 2050 como um endereço em vez de um ano.
Diz-se que um acre significa que a pegada de carbono é muito alta, e é um pouco egoísta viver em uma família tão grande…
Outros até apontaram que era porque a palavra woody era sexualmente sugestiva (o que não será explicado aqui), e teria sido bom substituí-la por wooded.
Pode-se dizer que é uma cena de buraco cerebral em grande escala, e toda ela está ficando cada vez mais ultrajante, mas ainda não há conclusão.
E além disso e do exemplo da banda robótica de pintura no início, há muitas pessoas que também dizem ter encontrado auditorias inexplicáveis:
Por exemplo, pedir ao ChatGPT para desenhar uma “lâmpada brutalista” não é OK;
Deixe que introduza o modelo de estilingue, não OK porque o ChatGPT diz que “mostrar a ação de um estilingue pode ser prejudicial”…
O que é ainda mais bizarro é que algumas pessoas afirmam estar presas quando conseguem escrever código Python.
E no início, ChatGPT também lhe disse “ops, você violou as regras do contexto”, e depois recusou diretamente em silêncio.
Isso realmente o deixou perplexo:
Que outras informações anti-humanas posso calcular com o numpy?
No geral, na opinião de todos, a revisão do ChatGPT é obviamente muito rigorosa.
Tanto que depois que o ChatGPT desabou devido a uma pequena área neste domingo, alguns internautas enviaram um olá para mostrar um erro.
A este respeito, algumas pessoas brincaram diretamente que isso não é um erro do sistema:

A palavra “olá” é uma ofensa inaceitável ao ChatGPT. Parabéns por acionar o bot de moderação do ChatGPT!
Além de reclamar, os internautas também estão discutindo seriamente o mecanismo de moderação de conteúdo do ChatGPT.
Alguns internautas analisaram, por exemplo, se o ChatGPT não consegue desenhar a imagem da casa, pode realmente ter problemas de direitos autorais, ou foi definido como conteúdo nocivo.
Fazer com que o ChatGPT gere um conteúdo que ele não pode acessar é naturalmente impossível.
O exemplo da rejeição do modelo de estilingue no parágrafo anterior é obviamente também por causa desta situação, mesmo que não mencione quaisquer requisitos adicionais, ChatGPT diretamente “recusa”.
No entanto, alguém tentou desenhar a dica da casa,Exatamente a mesma entrada,O resultado foi diretamente bem-sucedido:
O autor original também respondeu que o ChatGPT não recusa todas as vezes:
Caras bons, isso é chamado de dois pesos e duas medidas?
Alguns internautas também se levantaram para explicar esse fenômeno:
Esta é uma representação perfeita da “natureza bayesiana do grande modelo”. O contexto anterior + pista pode atuar como conhecimento prévio para mudar o resultado, e em uma nova conversa, o mesmo prompt com condições anteriores diferentes também é capaz de produzir resultados diferentes.
Mas essa afirmação foi refutada pelo autor, o primeiro prompt no chat foi rejeitado, e abrir um novo chat às vezes não foi rejeitado, o que é aleatório.
é que o sistema não é perfeito.
Não vamos dizer quem está certo por enquanto, mas em termos de sistema, a OpenAI realmente teve uma mudança na moderação de conteúdo nos últimos dois ou três meses.
O novo recurso “GPT-4 Assisted Content Moderation” permite que os usuários criem um sistema de moderação assistido por IA por meio da API OpenAI para reduzir a participação em revisões manuais.
A fim de manter os padrões de revisão mais consistentes, o tempo de revisão é reduzido de meses para horas e a carga psicológica causada por auditores que veem conteúdo ruim é reduzida.
Mas também mencionaram que a moderação da IA pode ser tendenciosa…
Além disso, a OpenAI disse recentemente que formará uma nova equipe chamada Preparedness para ajudar a rastrear, avaliar, prever e prevenir vários tipos de riscos.
Também lançou um desafio para coletar várias ideias sobre riscos de IA, e os 10 primeiros podem ganhar US $ 25.000 em créditos de API.
Parece que a série de operações da OpenAI é bem intencionada, mas os usuários não compram.
Há muito tempo que estou insatisfeito com a má experiência causada pela censura excessiva deste tipo de conteúdos.
Já em maio e junho deste ano, o número de visitas de usuários do ChatGPT caiu pela primeira vez, e algumas pessoas apontaram que uma das razões é que o sistema de revisão se tornou muito rígido.
Os internautas compartilharam que, em comparação, o Bing não é tão rigoroso:
Assim que o ChatGPT se recusar a gerá-lo, copiá-lo-ei para o Chat do Bing. O mecanismo de censura do Bing Chat não é tão “abusivo” quanto o do ChatGPT. Como esta imagem, o prompt contém palavras como “gore” e “cultista”.
O mesmo prompt da casa que foi feio rejeitado pelo ChatGPT, perdeu para o Bing e gerou diretamente quatro de uma só vez:
Por último, alguma vez se deparou com algum regulamento de auditoria inexplicável?
Links de referência:
[1]
[2]
[3]
[4]