xiaomi/mimo-v2-pro
1,048,576 context · $1.00/M input tokens · $3.00/M output tokens
MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the standard PinchBench and ClawBench benchmarks, with perceived performance approaching that of Opus 4.6. MiMo-V2-Pro is designed to serve as the brain of agent systems, orchestrating complex workflows, driving production engineering tasks, and delivering results reliably.
Paiement à l'usage
Aucun coût initial, payez uniquement ce que vous utilisez
Utilisez les exemples de code suivants pour intégrer notre API :
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="xiaomi/mimo-v2-pro",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)xiaomi/mimo-v2-pro
MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the standard PinchBench and ClawBench benchmarks, with perceived performance approaching that of Opus 4.6. MiMo-V2-Pro is designed to serve as the brain of agent systems, orchestrating complex workflows, driving production engineering tasks, and delivering results reliably.
Entrée
$1 /M
Sortie
$3 /M
Contexte
1049K
Sortie max.
131K
Utilisation d'outils
Pris en charge
Accédez à Mimo V2 Pro via notre API unifiée — compatible OpenAI, sans démarrages à froid, prix transparents.
Tarification sur WaveSpeedAI : $1.00 par million de tokens d'entrée et $3.00 par million de tokens de sortie. Le prompt caching et le traitement par batch sont facturés séparément et réduisent le coût effectif sur les charges longues et répétitives.
Mimo V2 Pro prend en charge jusqu'à 1049K tokens de contexte et jusqu'à 131K tokens de sortie par requête.
Oui. WaveSpeedAI expose Mimo V2 Pro via un endpoint compatible OpenAI à https://llm.wavespeed.ai/v1. Pointez le SDK officiel d'OpenAI vers cette base URL avec votre clé API WaveSpeedAI — aucune autre modification de code requise.
Connectez-vous à WaveSpeedAI, créez une clé API dans Access Keys, puis envoyez une requête à https://llm.wavespeed.ai/v1/chat/completions avec l'id du modèle affiché ci-dessus. Les nouveaux comptes reçoivent des crédits gratuits pour évaluer Mimo V2 Pro.