xiaomi/mimo-v2-pro
1,048,576 context · $1.00/M input tokens · $3.00/M output tokens
MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the standard PinchBench and ClawBench benchmarks, with perceived performance approaching that of Opus 4.6. MiMo-V2-Pro is designed to serve as the brain of agent systems, orchestrating complex workflows, driving production engineering tasks, and delivering results reliably.
Pay-per-Use
Keine Vorabkosten, zahlen Sie nur, was Sie nutzen
Verwenden Sie die folgenden Codebeispiele zur Integration mit unserer API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="xiaomi/mimo-v2-pro",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)xiaomi/mimo-v2-pro
MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the standard PinchBench and ClawBench benchmarks, with perceived performance approaching that of Opus 4.6. MiMo-V2-Pro is designed to serve as the brain of agent systems, orchestrating complex workflows, driving production engineering tasks, and delivering results reliably.
Eingabe
$1 /M
Ausgabe
$3 /M
Kontext
1049K
Max. Ausgabe
131K
Tool-Nutzung
Unterstützt
Zugriff auf Mimo V2 Pro über unsere einheitliche API — OpenAI-kompatibel, keine Kaltstarts, transparente Preise.
Preise auf WaveSpeedAI: $1.00 pro Million Input-Tokens und $3.00 pro Million Output-Tokens. Prompt-Caching und Batch-Verarbeitung werden separat berechnet und reduzieren die effektiven Kosten bei langen, sich wiederholenden Workloads.
Mimo V2 Pro unterstützt bis zu 1049K Kontext-Tokens und bis zu 131K Output-Tokens pro Anfrage.
Ja. WaveSpeedAI stellt Mimo V2 Pro über einen OpenAI-kompatiblen Endpunkt unter https://llm.wavespeed.ai/v1 bereit. Richten Sie das offizielle OpenAI SDK mit Ihrem WaveSpeedAI-API-Schlüssel auf diese Base-URL — keine weiteren Codeänderungen erforderlich.
Bei WaveSpeedAI anmelden, in Access Keys einen API-Schlüssel erstellen und eine Anfrage an https://llm.wavespeed.ai/v1/chat/completions mit der oben angezeigten Model-ID senden. Neue Konten erhalten kostenlose Credits, um Mimo V2 Pro zu testen.