xiaomi/mimo-v2-pro
1,048,576 context · $1.00/M input tokens · $3.00/M output tokens
MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the standard PinchBench and ClawBench benchmarks, with perceived performance approaching that of Opus 4.6. MiMo-V2-Pro is designed to serve as the brain of agent systems, orchestrating complex workflows, driving production engineering tasks, and delivering results reliably.
Pay-per-use
Nessun costo iniziale, paga solo per ciò che usi
Usa i seguenti esempi di codice per integrare la nostra API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="xiaomi/mimo-v2-pro",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)xiaomi/mimo-v2-pro
MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the standard PinchBench and ClawBench benchmarks, with perceived performance approaching that of Opus 4.6. MiMo-V2-Pro is designed to serve as the brain of agent systems, orchestrating complex workflows, driving production engineering tasks, and delivering results reliably.
Input
$1 /M
Output
$3 /M
Contesto
1049K
Output max
131K
Uso strumenti
Supportato
Accedi a Mimo V2 Pro tramite la nostra API unificata — compatibile con OpenAI, senza cold start, prezzi trasparenti.
Prezzi su WaveSpeedAI: $1.00 per milione di token in input e $3.00 per milione di token in output. Prompt caching e batch processing sono fatturati separatamente e riducono il costo effettivo su carichi lunghi e ripetitivi.
Mimo V2 Pro supporta fino a 1049K token di contesto e fino a 131K token di output per richiesta.
Sì. WaveSpeedAI espone Mimo V2 Pro tramite un endpoint compatibile con OpenAI all'indirizzo https://llm.wavespeed.ai/v1. Punta l'SDK ufficiale di OpenAI a questa base URL con la tua API key WaveSpeedAI — senza altre modifiche al codice.
Accedi a WaveSpeedAI, crea una API key in Access Keys, poi invia una richiesta a https://llm.wavespeed.ai/v1/chat/completions con il model id mostrato sopra. I nuovi account ricevono crediti gratuiti per testare Mimo V2 Pro.