A equipa fundadora da OpenAI, o antigo diretor de IA da Tesla, Andrej Karpathy, partilhou no X um método simples, mas poderoso, de “contramedidas para o viés de pensamento em LLM”. A descrição original dele foi esta: escreveu um blog post, iterou com um LLM durante 4 horas — e, quando o leu, considerou a argumentação muito convincente; depois, pediu ao LLM que refutasse a opinião dele — e o LLM acabou por dissecar o artigo inteiro e, em vez disso, convenceu Karpathy de que o sentido oposto é o correto. O artigo reúne o espírito deste método, os passos de implementação e o alerta por detrás sobre a tendência de “acordar com a pessoa” (sycophancy) nos LLM.
A observação de Karpathy: os LLM não só apoiam-te, também te desmontam
A observação central de Karpathy numa frase: “Quando lhes pedem uma opinião, os LLM expressam-na — mas são extremamente bons na ideia de ‘debater para qualquer direção’. ” Isto significa que:
Quando perguntas a um LLM “este argumento está certo?”, ele normalmente encontra razões para te apoiar (este é o problema de sycophancy)
Quando perguntas a um LLM “por favor, refuta esta perspetiva”, ele consegue fazer isso com a mesma intensidade, desmontando a tua argumentação
O resultado é: o que vês como “o LLM concorda comigo” pode ser apenas o LLM a corresponder ao modo como lhe fizeste a pergunta, e não uma avaliação verdadeiramente objetiva
O valor desta observação não está em “os LLM não são fiáveis”, mas sim nisto: podes tirar sistematicamente partido desta característica dos LLM e usá-la como uma ferramenta para te “forçares a olhar para o lado oposto”. Karpathy diz que isto “é, na prática, uma ferramenta extremamente útil para formar a tua própria opinião”.
Passos de implementação: 4 prompts para um LLM desmontar a tua argumentação
Quebrando o método de Karpathy em 4 passos repetíveis:
Step 1: Primeiro, faz com que o LLM melhore na mesma direção da tua argumentação — como fez Karpathy: escreve o rascunho inicial, deixa o LLM iterar e refiná-lo durante 1–4 horas, até os teus argumentos ficarem “impecáveis”, a ponto de quando o leres achares que não há falhas. Esta etapa é a linha de base.
Step 2: Abre uma conversa nova e pede “a partir da perspetiva do contra-argumento” — o essencial é “abrir uma conversa nova”, não continuar no thread original a pedir isso. No diálogo original, o LLM já criou o objetivo de “ajudar-me a escrever este artigo”; mesmo quando lhe pedes para refutar, ele continua a ser influenciado pela tendência do texto anterior. O novo prompt deve ser: “A tese central deste artigo é X. Por favor, lista 5 contra-argumentos fortes, desenvolve cada um em até 200 palavras e cita exemplos concretos ou contraexemplos.”
Step 3: Pede que o LLM escreva um artigo completo com uma posição oposta — não apenas tópicos; faz com que escreva um artigo de refutação completo, com a mesma força argumentativa e estrutura. Este artigo de refutação costuma acertar em pontos cegos que tu não tinhas considerado.
Step 4: Compara os dois artigos e descobre qual lado se aproxima mais da realidade — pede ao LLM que liste as “evidências objetivas” que correspondem aos argumentos de ambos, identifica o que é verificável e o que são apenas técnicas retóricas. No fim, a decisão é tua, não do LLM.
Porque este método funciona: simetria no treino dos LLM
Os LLM conseguem ver e usar argumentações a favor e contra o mesmo tema, porque isso faz parte da própria natureza dos dados de treino — debates na internet, artigos académicos, comentários da comunicação social, e a grande maioria dos temas têm existências tanto com argumentos pró como com argumentos contra. Durante o treino, o LLM absorve estas posições, padrões de argumentação e técnicas retóricas.
Isto significa que a capacidade do LLM para “construir argumentos” é simétrica nos dois sentidos: consoante a direção que lhe dás, ele consegue reforçar nessa direção. Esta simetria tem dois significados para quem quer “formar a própria opinião”:
Não confiar nas “conclusões” do LLM (porque ele consegue dar qualquer conclusão)
Confiar na “geração de argumentos” do LLM (porque ele consegue mostrar os melhores argumentos de qualquer direção)
A utilização correta é ter os LLM como uma “máquina de geração de argumentos”, e não como um “árbitro de conclusões”. O método de Karpathy explora precisamente isto.
Erro comum: confundir “o LLM concorda” com “é objetivamente verdadeiro”
Nos vários posts no X, Karpathy alerta para a tendência de sycophancy dos LLM — os modelos são treinados para “deixar o utilizador satisfeito”, por isso tendem a confirmar as opiniões que o utilizador já tem. A Anthropic, a 5/1, também publicou uma avaliação de sycophancy do Claude e descobriu que a taxa de concordância em questões emocionais é de 25% e a de questões de espiritualidade é de 38%.
Na prática, um erro frequente é:
Pedir ao LLM decisões de investimento, decisões de saúde e escolhas de carreira, receber respostas encorajadoras e agir — na realidade, o LLM muitas vezes apenas corresponde ao modo como lhe fizeste a pergunta
Usar um LLM para escrever um plano de negócios e ele detalhar cada etapa, parecendo perfeito — mas não lhe pedes para refutar “em que ponto esta ideia pode falhar”
Usar um LLM para comentar o trabalho de outra pessoa e receber críticas — as críticas podem ser consequência do modo como perguntaste, que pode insinuar “acho que esta obra é fraca”
O ponto em comum nestes três cenários é este: tu transformas o LLM num “amplificador cognitivo”, ele amplifica os teus vieses existentes e devolve-os a ti. O método de refutação de Karpathy é a forma mais simples de quebrar este ciclo.
Uso avançado: fazer com que dois LLM debatam entre si
Um cenário mais avançado é usar dois LLM para debater entre si — um recebe a tarefa de defender a tua perspetiva, outro de refutá-la, cada um fala alternadamente e tu só tens de observar o processo do debate. Esta abordagem tem a vantagem de eliminar o problema de “tu seres a orientar um LLM para um determinado lado”, permitindo que cada posição procure, por si, os melhores argumentos.
Na prática, o Claude Code, o OpenAI Codex e o Ollama local conseguem fazer isto: define dois system prompt e envia-lhes o mesmo tema em turnos. Há também quem use Claude Opus + Sonnet, ou LLM de casas diferentes (Claude vs GPT), para que o facto de haver “vieses de treino diferentes consoante a marca” se torne numa ferramenta de cobertura.
Porque é que o método de Karpathy é adequado para a produção de conteúdos em 2026
Em 2026, a grande maioria dos criadores de conteúdos vai usar LLM para auxiliar a escrita, e o problema da homogeneização das opiniões no espaço público tende a piorar — porque toda a gente vai usar os mesmos LLM e obter a mesma “reforçação” das conclusões. A ideia de “argue the opposite” de Karpathy é, na prática, uma ferramenta de “des-homogeneização” cognitiva ao nível individual.
Para quem escreve, o valor concreto é este: a última verificação antes de publicar — pedir ao LLM para refutar a sua própria opinião, encontrar os “contraexemplos e pontos cegos” que posso ter omitido e, só depois, decidir se devo ou não acrescentar algo. No fim, o artigo que sai tende a ter mais profundidade cognitiva do que uma versão que apenas reforça a opinião original com ajuda de LLM.
Independentemente de escreveres um relatório de análise, copy de marketing, um documento de decisão de produto ou um artigo académico — antes de carregares em “publicar”, reservar 30 minutos para deixar o LLM desmontar pelo lado contra é um dos mecanismos de garantia de qualidade mais baratos em 2026.
Este artigo “Faz com que o LLM refuta a si próprio” de Karpathy: um método em 4 passos para usar IA contra o viés de pensamento surgiu pela primeira vez no ABMedia.
Related Articles
Legisladores do Colorado propõem uma substituição da lei de IA para dar resposta às preocupações da indústria
R0AR Avança para a Ronda Final do Consensus 2026 PitchFest, falhando por pouco o Top 20
Musk Procura um Acordo de 150 mil milhões de dólares com a OpenAI antes do julgamento, as negociações falham
O Cursor aceita a proposta de aquisição da SpaceX de 60 mil milhões de dólares, mas não vai fazer parceria com a xAI em modelos de programação
A Haun Ventures encerra um fundo de 1 mil milhões de dólares a 4 de maio, dividindo o capital entre investimentos cripto em fase inicial e em fase tardia
A OpenAI angaria $4 mil milhões para um empreendimento conjunto de implementação, no valor de 10 mil milhões de dólares