
テンセントの大規模モデルチーム責任者であるラオ・フーリーは4月24日、ビリビリのプラットフォームで深いインタビューを受けました(動画番号:BV1iVoVBgERD)。インタビューの長さは3.5時間で、技術責任者として初めて公開の場で技術的な見解を体系的に説明しました。ラオ・フーリーは、大規模モデルの競争レースはChatの時代からAgentの時代へ移行しており、「自己進化」が今後1年のAGIにとっての重要な出来事になると述べました。

(出所:ビリビリ)
ラオ・フーリーがBilibiliのインタビューで述べた内容によると、同氏は、2026年の大規模モデル競争の重点は、汎用的な対話品質から、複雑なタスクにおける継続的な自律実行能力へと移ると指摘しています。彼女はインタビューの中で、現在のトップモデルは特定のタスクにおいて自律的に最適化でき、かつ人間の介入や調整を必要とせずに2〜3日間にわたって安定して実行し続けられると述べました。さらに彼女は、 「自己進化」能力のブレークスルーは、AIシステムが自己修正能力を持ち始めたことを意味すると強調し、Anthropicの技術ロードマップやClaude Opus 4.6などの技術変数が、AIエコシステム全体に与える影響を具体的に挙げました。
ラオ・フーリーがインタビューで明らかにしたところによれば、Xiaomiは計算資源の配分戦略で大きな調整をすでに行っています。彼女は、業界で一般的な計算資源配分がPre-train:Post-train:Inference = 3:5:1であるのに対し、Xiaomiの現在の戦略は3:1:1に調整されており、後訓練(後半学習)の比率を大幅に圧縮すると同時に、推論段階に対する資源投入を引き上げていると説明しました。
彼女はインタビューで、この転換はAgent RL Scaling戦略の成熟によって、後訓練に大量の計算資源を積み上げる必要がなくなったことに起因すると述べました。そして推論側の資源向上は、Agentが実際の利用シーンに展開される際に、即時応答能力が求められることを反映しているとしています。
国内の大規模モデルにおけるPre-trainの世代差問題について、ラオ・フーリーはインタビューで、このギャップは過去の3年から数か月へ短縮されており、現在の戦略の重点はAgent RL Scalingへと移っていると述べました。ラオ・フーリーの職歴は、Alibaba DAMO Academy、幻方(HuanFang)クオンツ、DeepSeek(DeepSeek-V2の中核開発者)に及び、2025年11月にXiaomiに加入しました。
Xiaomiが2026年3月19日に公開したMiMo-V2シリーズの発表によると、今回のリリースでは3つのモデルを同時にリリースしました。
MiMo-V2-Pro:兆の総パラメータ、有効化パラメータ42B、混合注意機構、100万相当コンテキスト対応、タスク達成率81%
MiMo-V2-Omni:マルチモーダルAgentのシーン
MiMo-V2-TTS:音声合成のシーン
発表によれば、オープンソース化されたMiMo-V2-Flashは、グローバルのオープンソースモデルランキングで第2位に位置し、推論速度はDeepSeek-V3.2の3倍です。
ラオ・フーリーが2026年4月24日にBilibiliで行ったインタビューでの発言(BV1iVoVBgERD)によると、彼女はインタビューの中で、現在のトップモデルは特定のタスクにおいて自律的に最適化でき、かつ2〜3日間にわたり人間の介入なしで安定して実行できると指摘し、「自己進化」を今後1年のAGI発展で最も重要な出来事であると位置づけました。
ラオ・フーリーがインタビューで明らかにしたところによれば、Xiaomiの計算資源配分は、業界で一般的に使われるPre-train:Post-train:Inference = 3:5:1から、3:1:1へと調整されており、後訓練の比率を大幅に圧縮しています。彼女は、この調整は、Agent RL Scaling戦略が成熟したことで後訓練の効率が向上したこと、ならびにAgentが実運用のシーンに展開される際に推論側の即時応答能力が求められることに由来すると説明しました。
Xiaomiが2026年3月19日に発表した公式告知によれば、オープンソース化されたMiMo-V2-Flashは、グローバルのオープンソースモデルランキングで第2位に位置し、推論速度はDeepSeek-V3.2の3倍です。フラッグシップ版MiMo-V2-Proのタスク達成率は81%です。
関連記事