Anterior Diretor de IA da Tesla, Andrej Karpathy, uma voz importante no campo de aprendizagem profunda, recentemente publicou no X destacando um problema fundamental dos grandes modelos de linguagem (LLM): a memória e a personalização não tornam o modelo mais inteligente, pelo contrário, podem reforçar um “viés de treino” sistêmico, levando o modelo a responder mais frequentemente com “respostas corretas comuns” do que com a “melhor resposta real”.
Núcleo do problema: LLM “lembram”, não “raciocinam”
A argumentação de Karpathy desafia diretamente as suposições de funcionamento dos LLM. Ele aponta que a distribuição de exemplos nos dados de treino é altamente desigual — soluções populares e respostas frequentemente discutidas aparecem repetidamente nos dados, enquanto respostas raras, mas igualmente corretas, quase não existem.
Isso gera um problema fundamental: ao responder perguntas, os LLM não “raciocinam” de fato para encontrar a melhor resposta, mas buscam na memória os “exemplos corretos mais comuns”. Em outras palavras, quanto mais mainstream e discutida for uma solução, mais fácil será para o modelo escolhê-la, mesmo que existam opções melhores ou mais adequadas ao contexto atual.
Efeito colateral da personalização de memória
Esse problema é ampliado na funcionalidade de memória personalizada de assistentes de IA. Quando o modelo lembra preferências, hábitos ou diálogos passados do usuário, o “modelo de usuário” que ele constrói é, na essência, também produto da distribuição de treino — ele lembra o “tipo mais comum” que se assemelha ao usuário, e não compreende verdadeiramente suas necessidades únicas.
Isso significa que, quanto mais forte for a personalização do LLM, mais fácil será para ele encaixar o usuário em um “protótipo”, ao invés de fornecer respostas realmente sob medida.
Impacto prático para jornalistas de mídia de IA
Essa percepção tem impacto direto para quem usa IA na análise de trabalhos. Quando você pede à IA para analisar um projeto de criptomoeda pouco conhecido, avaliar uma posição política não convencional ou estudar uma tecnologia pouco discutida, as respostas podem tendencialmente favorecer a “opinião dominante”, ao invés de uma análise objetiva.
Karpathy acredita que, atualmente, não há uma solução perfeita para esse problema, que pode ser mitigado com uma maior diversidade de dados de treino. Mas o viés fundamental — a tendência do modelo a preferir respostas populares — é uma característica intrínseca da arquitetura dos LLM, não um bug.
Questão mais profunda: a IA está copiando os pontos cegos coletivos humanos
A observação de Karpathy aponta para uma preocupação mais profunda: os dados de treino são amostras do que os humanos escreveram no passado, não uma distribuição objetiva de conhecimento. Isso significa que os LLM não apenas copiam o conhecimento humano, mas também reproduzem os pontos cegos, preconceitos e a ênfase excessiva em narrativas “mainstream” da coletividade.
À medida que a IA é cada vez mais usada para análise de notícias, decisões de investimento e avaliação de políticas, o impacto desses vieses de treino se amplia. Não se trata apenas de uma questão técnica, mas de um problema cognitivo que exige que os usuários mantenham uma postura crítica.
Por que quanto mais a IA te conhece, mais ela tende a te dar respostas “mainstream”? O alerta de Karpathy sobre viés de treino foi originalmente publicado na ABMedia.