
A responsável da equipe de Modelos de Grande Escala da Xiaomi, Luo Fuli, concedeu uma entrevista aprofundada na plataforma Bilibili em 24 de abril (ID do vídeo: BV1iVoVBgERD). A duração da entrevista foi de 3,5 horas, e foi a primeira vez que ela apresentou de forma sistemática suas opiniões técnicas publicamente como responsável técnica. Luo Fuli disse que a competição em caminhos de modelos de grande escala já passou da era do Chat para a era dos Agents e apontou que “autoevolução” será o principal evento para a AGI no próximo ano.

(Fonte: Bilibili)
Com base no que Luo Fuli disse na entrevista do Bilibili, ela apontou que, em 2026, o foco da competição por modelos de grande escala mudará de qualidade geral de diálogo para capacidade de execução autônoma contínua em tarefas complexas. Na entrevista, ela afirmou que, atualmente, os modelos de ponta já conseguem fazer otimização autônoma em tarefas específicas e continuar executando de forma estável por 2 a 3 dias, sem necessidade de intervenção humana para ajustes. Na entrevista, ela enfatizou que a突破 da capacidade de “autoevolução” significa que os sistemas de IA começam a ter capacidade de auto-correção, e citou o caminho técnico da Anthropic e variáveis técnicas como o Claude Opus 4.6, bem como o impacto dessas variáveis em todo o ecossistema de IA.
De acordo com o que Luo Fuli revelou na entrevista, a Xiaomi já fez ajustes importantes em sua estratégia de alocação de poder computacional. Ela explicou que a alocação de poder computacional normalmente usada na indústria é Pre-train:Post-train:Inference = 3:5:1, enquanto a estratégia atual da Xiaomi já foi ajustada para 3:1:1, comprimindo significativamente a proporção de pós-treinamento e, ao mesmo tempo, elevando o investimento de recursos na fase de inferência.
Na entrevista, ela explicou que essa mudança se deve ao amadurecimento da estratégia Agent RL Scaling: com isso, o pós-treinamento não precisa mais empilhar grandes quantidades de poder computacional, e o aumento de recursos na ponta de inferência reflete a necessidade de capacidade de resposta imediata nos cenários em que o Agent vai para o mundo real.
Quanto ao problema da defasagem de gerações do Pre-train em modelos de grande escala na China continental, Luo Fuli disse na entrevista que essa diferença já foi reduzida de 3 anos no passado para alguns meses, e que o foco atual da estratégia está se movendo em direção ao Agent RL Scaling. A trajetória profissional de Luo Fuli inclui o Instituto DAMO da Alibaba, a empresa de quantificação Huanfang e a DeepSeek (desenvolvedores centrais do DeepSeek-V2). Em novembro de 2025, ela se juntou à Xiaomi.
De acordo com o comunicado da Xiaomi de 19 de março de 2026 sobre a série MiMo-V2, desta vez foram lançados três modelos de uma só vez:
MiMo-V2-Pro:parâmetros totais, com parâmetros habilitados em 42B, arquitetura de atenção híbrida, suporte a contexto de milhão, taxa de conclusão de tarefas 81%
MiMo-V2-Omni:cenários de Agent multimodal
MiMo-V2-TTS:cenários de síntese de voz
Conforme o comunicado, o MiMo-V2-Flash, que já foi open source, ficou em segundo lugar no ranking global de modelos open source, com a velocidade de inferência atingindo 3 vezes a do DeepSeek-V3.2.
De acordo com o que Luo Fuli declarou na entrevista de 24 de abril de 2026 na Bilibili (BV1iVoVBgERD), ela apontou na entrevista que, atualmente, os modelos de ponta já conseguem fazer otimização autônoma em tarefas específicas e executar de forma estável por 2 a 3 dias sem precisar de intervenção humana, e classificou a “autoevolução” como o evento mais crucial para o desenvolvimento de AGI no próximo ano.
Com base no que Luo Fuli revelou na entrevista, a proporção de alocação de poder computacional da Xiaomi foi ajustada de Pre-train:Post-train:Inference = 3:5:1 usada tradicionalmente pela indústria para 3:1:1, comprimindo significativamente a proporção de pós-treinamento; ela explicou que esse ajuste decorre do aumento da eficiência do pós-treinamento após o amadurecimento da estratégia Agent RL Scaling, e da necessidade de capacidade de resposta imediata do lado de inferência nos cenários em que o Agent é implementado.
De acordo com o comunicado oficial da Xiaomi divulgado em 19 de março de 2026, o MiMo-V2-Flash, que já foi open source, ficou em segundo lugar no ranking global de modelos open source; a velocidade de inferência é 3 vezes a do DeepSeek-V3.2, e a taxa de conclusão de tarefas da versão topo de linha MiMo-V2-Pro é de 81%.
Related Articles
Ant Group Lança Ling-2.6-1T: Modelo com Trilhão de Parâmetros Otimizado para Execução Eficiente em Tokens
A API da Nansen agora oferece suporte ao Protocolo MPP da Tempo, permitindo que agentes de IA paguem por chamada
Greg Brockman da OpenAI: IA mudando de conversa para execução autônoma de tarefas
Principal CEX Lança Smart Money Signal Suite com 1.000+ Dados de Traders
B.AI Atualiza a Infraestrutura, Lança Principais Recursos de Skills
Agentes de IA impulsionam a demanda por pagamentos em cripto, x402 processa 165M de transações