前 Tesla AI 総監督、深層学習分野の重要な声である Andrej Karpathy は、最近 X 上に投稿し、大型言語モデル(LLM)の根本的な問題を指摘した:記憶と個性化機能はモデルをより賢くするどころか、むしろ「訓練バイアス」と呼ばれるシステム的偏りを強化し、モデルが「一般的な正解」ではなく「真に最適な答え」よりも、「よくある正解」を選びやすくなる可能性がある。
問題の核心:LLMは「記憶」することはできても、「推論」しない
Karpathy の指摘は、LLM の動作仮説に直接挑戦している。彼は、訓練データ内の「例」の分布が極めて偏っていることを示す——流行の解法やよく議論される答えが訓練データに繰り返し現れる一方で、稀だけれども正しい答えはほとんど存在しない。
これにより根本的な問題が生じる:LLMは質問に答える際、「最良の推論」を行うのではなく、「最も一般的な正解例」を記憶から検索しているに過ぎない。言い換えれば、主流で広く議論されている解法ほど、モデルはそれを選びやすくなる。たとえより良く、より状況に適した選択肢が存在してもだ。
個性化記憶の逆効果
この問題は、AIアシスタントの個性化記憶機能によってさらに拡大される。モデルがユーザーの好みや習慣、過去の会話を記憶する際、その「ユーザーモデル」もまた訓練データの偏りの産物となる——つまり、「このユーザーに最も似た一般的なタイプ」を記憶しているに過ぎず、その人の独自のニーズや特性を本当に理解しているわけではない。
これにより、個性化が強まるほど、モデルはユーザーをある「典型例」に押し込めやすくなり、真にパーソナライズされた回答を提供しにくくなる可能性がある。
AIメディアの記者への実際の影響
この洞察は、AIを補助ツールとして使う人々にとって直接的な意味を持つ。たとえば、あまり知られていない暗号通貨プロジェクトの分析や、マイナーな政策立場の評価、少数派の技術的見解の研究を行う際、AIが出す答えは自然と「主流の意見」に偏りやすく、客観的な分析から乖離する可能性がある。
Karpathy は、この問題には完璧な解決策は現時点では存在しないとし、より多様な訓練データを用いることで緩和できると述べている。しかし、根本的な偏り——「モデルが流行の答えに偏る」——は、LLMの構造的な性質であり、バグではない。
より深刻な問題:AIは人間の集団的盲点を模倣している
Karpathy の観察は、より深い懸念を示している。それは、訓練データが人類の過去の書き起こしのサンプルであり、客観的な知識分布ではないという点だ。つまり、LLMは人類の知識だけでなく、集団的な盲点や偏見、そして特定の「主流ナarrative」への過剰な強調も模倣してしまう。
AIがますますニュース分析、投資判断、政策評価に使われる中で、訓練バイアスの影響範囲は拡大している。これは技術的な問題というよりも、ユーザーが批判的な視点を持ち続ける必要がある認知的な問題だ。
なぜAIはあなたをより理解すればするほど、「主流」な答えを返すのか? Karpathy の訓練バイアス警告は、最初に鏈新聞 ABMedia にて紹介された。