xiaomi/mimo-v2-omni
262,144 context · $0.40/M input tokens · $2.00/M output tokens
MiMo-V2-Omni is a frontier omni-modal model that natively processes image, video, and audio inputs within a unified architecture. It combines strong multimodal perception with agentic capability - visual grounding, multi-step planning, tool use, and code execution - making it well-suited for complex real-world tasks that span modalities. 256K context window.
사용량 기반 과금
선결제 없이 사용한 만큼만 지불
다음 코드 예시를 사용해 API와 연동하세요:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="xiaomi/mimo-v2-omni",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)xiaomi/mimo-v2-omni
MiMo-V2-Omni is a frontier omni-modal model that natively processes image, video, and audio inputs within a unified architecture. It combines strong multimodal perception with agentic capability - visual grounding, multi-step planning, tool use, and code execution - making it well-suited for complex real-world tasks that span modalities. 256K context window.
입력
$0.4 /M
출력
$2 /M
컨텍스트
262K
최대 출력
66K
Vision
지원
도구 사용
지원
통합 API를 통해 Mimo V2 Omni 액세스 — OpenAI 호환, 콜드 스타트 없음, 투명한 가격.
WaveSpeedAI 가격: 입력 토큰 100만 개당 $0.40, 출력 토큰 100만 개당 $2.00. 프롬프트 캐싱과 배치 처리는 별도로 청구되며 긴 반복 작업에서 실질 비용을 줄여 줍니다.
Mimo V2 Omni은 요청당 최대 262K 컨텍스트 토큰과 최대 66K 출력 토큰을 지원합니다.
네. WaveSpeedAI는 OpenAI 호환 엔드포인트 https://llm.wavespeed.ai/v1을 통해 Mimo V2 Omni을 제공합니다. 공식 OpenAI SDK의 base URL을 이 주소로 변경하고 WaveSpeedAI API 키를 사용하면 코드 변경 없이 사용할 수 있습니다.
WaveSpeedAI에 로그인하고 Access Keys에서 API 키를 만든 다음, 위에 표시된 모델 ID로 https://llm.wavespeed.ai/v1/chat/completions에 요청을 보내세요. 신규 계정은 Mimo V2 Omni을 평가할 수 있는 무료 크레딧을 받습니다.