Xiaomi Lança MiMo-V2-Flash, Rival Open-Source de Claude

A gigante chinesa de tecnologia Xiaomi formalizou sua entrada no cenário de modelos de linguagem de grande escala (LLMs) com o lançamento do MiMo-V2-Flash, um modelo open-source projetado para competir diretamente com líderes do mercado, incluindo versões do Claude e DeepSeek.
Apresentação e Posicionamento de Mercado
A Xiaomi revelou o MiMo-V2-Flash como seu modelo de IA mais avançado até o momento, focado em alta performance, eficiência de arquitetura e forte capacidade em tarefas de raciocínio, geração de código e cenários de agentes inteligentes.
O lançamento, que ocorreu em meados de dezembro de 2025, posiciona a empresa como uma concorrente séria no ecossistema de IA, ao lado de nomes como Anthropic (desenvolvedora do Claude), OpenAI e DeepSeek.
Acesso e Plataforma Web
O modelo foi disponibilizado globalmente através de múltiplas plataformas, incluindo o Hugging Face, uma plataforma de API e o MiMo Studio, uma interface de chat baseada na web (aistudio.xiaomimimo.com).
A interface web permite aos usuários interagir diretamente com o MiMo-V2-Flash, suportando funcionalidades como pesquisa na web, fluxos de trabalho de agentes e geração de código. Uma característica notável é a opção de alternar entre respostas instantâneas e respostas mais lentas, destinadas a um raciocínio mais aprofundado.
Veja também:
Arquitetura e Eficiência
O MiMo-V2-Flash utiliza uma arquitetura Mixture-of-Experts (MoE), uma técnica que divide redes neurais grandes em sub-redes especializadas para otimizar o processamento.
- Parâmetros Totais: 309 bilhões.
- Parâmetros Ativos: Apenas 15 bilhões, o que garante alta eficiência operacional.
- Arquitetura de Atenção: Adota uma arquitetura híbrida que mescla Atenção de Janela Deslizante (SWA) com Atenção Global.
- Contexto: Suporta um comprimento de contexto nativo de 32.000 tokens, com treinamento para estender até 256.000 tokens.
A Xiaomi afirma que essa estrutura híbrida de atenção contribui para um desempenho superior em tarefas de contexto longo, superando, em alguns testes, modelos maiores que utilizam atenção global completa.
Desempenho Competitivo e Custo-Benefício
Os resultados de *benchmarks* divulgados pela Xiaomi sugerem que o MiMo-V2-Flash alcança um desempenho de ponta, comparável a modelos proprietários de referência.
Raciocínio e Código
Em tarefas de raciocínio, como AIME 2025 e GPQA-Diamond, o modelo se classifica entre os dois melhores entre os modelos open-source. No quesito codificação, a Xiaomi alega que o MiMo-V2-Flash se iguala ao desempenho do Claude 4.5 Sonnet.
Em *benchmarks* de engenharia de software, como SWE-Bench Verified e SWE-Bench Multilingual, o modelo superou todos os concorrentes open-source e atingiu patamares comparáveis ao GPT-5 em alguns casos.
Velocidade e Preço
Um dos maiores diferenciais destacados é a eficiência em custos e velocidade de inferência. A Xiaomi alega que o modelo entrega respostas com uma velocidade de até 150 tokens por segundo, mantendo um custo operacional significativamente baixo.
A precificação da API é de US$ 0,1 por milhão de *tokens* de entrada e US$ 0,3 por milhão de *tokens* de saída, o que representa uma fração do custo de concorrentes diretos, como o Claude 4.5 Sonnet, chegando a custar apenas cerca de 3,5% do valor para tarefas comparáveis.
Contexto Estratégico e Desdobramentos
O lançamento do MiMo-V2-Flash faz parte da estratégia mais ampla da Xiaomi de integrar recursos avançados de IA em seu ecossistema de produtos, que inclui smartphones, tablets e veículos elétricos (EVs).
A pesquisadora Luo Fuli, que recentemente ingressou na Xiaomi vinda da DeepSeek, mencionou em suas redes sociais que este lançamento representa o “segundo passo no nosso roteiro para a AGI (Inteligência Artificial Geral)”.
O modelo é totalmente open-source sob a licença MIT, com pesos disponíveis no Hugging Face e código de inferência publicado no GitHub, visando fomentar a adoção pela comunidade desenvolvedora. A empresa também contribuiu com o código de inferência para a biblioteca SGLang no dia do lançamento.
Embora o MiMo-V2-Flash tenha sido lançado em dezembro de 2025, a comparação com o Claude 4.6 (lançado em fevereiro de 2026, segundo fontes externas) indica que a Xiaomi busca manter a relevância do seu modelo ao ser comparado com as iterações mais recentes da Anthropic, especialmente em termos de custo-benefício, apesar do Claude 4.6 apresentar um contexto maior (1M de tokens) e suporte a entrada de imagens, funcionalidades ausentes no MiMo-V2-Flash.
A comunidade de IA tem observado a capacidade do MiMo-V2-Flash em cenários de agentes, onde a velocidade de resposta é crucial, e sua arquitetura MoE o torna um forte candidato para aplicações que exigem processamento rápido com menor custo computacional.
