Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
X
xiaomi/mimo-v2-pro

xiaomi/mimo-v2-pro

1,048,576 context · $1.00/M input tokens · $3.00/M output tokens

MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the standard PinchBench and ClawBench benchmarks, with perceived performance approaching that of Opus 4.6. MiMo-V2-Pro is designed to serve as the brain of agent systems, orchestrating complex workflows, driving production engineering tasks, and delivering results reliably.

Preise

Pay-per-Use

Keine Vorabkosten, zahlen Sie nur, was Sie nutzen

Eingabe$1.00 / M Tokens
Ausgabe$3.00 / M Tokens

API-Nutzung

Verwenden Sie die folgenden Codebeispiele zur Integration mit unserer API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="xiaomi/mimo-v2-pro",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Info

Anbieterxiaomi
Typllm

Unterstützte Funktionen

Eingabe
Text
Ausgabe
Text
Kontext1,048,576
Max. Ausgabe131,072
Vision-
Function Calling✓ Unterstützt

API-Zugriffsanleitung

Base URLhttps://llm.wavespeed.ai/v1
API-Endpunktchat/completions
Modell-IDxiaomi/mimo-v2-pro

Mimo V2 Pro API

xiaomi/mimo-v2-pro

MiMo-V2-Pro is Xiaomi's flagship foundation model, featuring over 1T total parameters and a 1M context length, deeply optimized for agentic scenarios. It is highly adaptable to general agent frameworks like OpenClaw. It ranks among the global top tier in the standard PinchBench and ClawBench benchmarks, with perceived performance approaching that of Opus 4.6. MiMo-V2-Pro is designed to serve as the brain of agent systems, orchestrating complex workflows, driving production engineering tasks, and delivering results reliably.

Eingabe

$1 /M

Ausgabe

$3 /M

Kontext

1049K

Max. Ausgabe

131K

Tool-Nutzung

Unterstützt

Mimo V2 Pro auf WaveSpeedAI testen

Zugriff auf Mimo V2 Pro über unsere einheitliche API — OpenAI-kompatibel, keine Kaltstarts, transparente Preise.

Häufige Fragen zu Mimo V2 Pro

Wie viel kostet die Mimo V2 Pro-API?+

Preise auf WaveSpeedAI: $1.00 pro Million Input-Tokens und $3.00 pro Million Output-Tokens. Prompt-Caching und Batch-Verarbeitung werden separat berechnet und reduzieren die effektiven Kosten bei langen, sich wiederholenden Workloads.

Wie groß ist das Kontextfenster von Mimo V2 Pro?+

Mimo V2 Pro unterstützt bis zu 1049K Kontext-Tokens und bis zu 131K Output-Tokens pro Anfrage.

Ist Mimo V2 Pro OpenAI-kompatibel?+

Ja. WaveSpeedAI stellt Mimo V2 Pro über einen OpenAI-kompatiblen Endpunkt unter https://llm.wavespeed.ai/v1 bereit. Richten Sie das offizielle OpenAI SDK mit Ihrem WaveSpeedAI-API-Schlüssel auf diese Base-URL — keine weiteren Codeänderungen erforderlich.

Wie starte ich mit Mimo V2 Pro?+

Bei WaveSpeedAI anmelden, in Access Keys einen API-Schlüssel erstellen und eine Anfrage an https://llm.wavespeed.ai/v1/chat/completions mit der oben angezeigten Model-ID senden. Neue Konten erhalten kostenlose Credits, um Mimo V2 Pro zu testen.

Verwandte LLM-APIs