Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
minimax
minimax/minimax-m2

minimax/minimax-m2

196,608 context · $0.30/M input tokens · $1.20/M output tokens

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows. With 10 billion activated parameters (230 billion total), it delivers near-frontier intelligence across general reasoning,...

定價

按用量付費

無需預付費用,僅按實際使用量付費

輸入$0.30 / M Tokens
輸出$1.20 / M Tokens

試用模型

minimax/minimax-m2
線上
minimax
嗨!我是樂於助人的 AI 助理。有什麼可以幫你的嗎?

API 使用

使用以下程式碼範例整合我們的 API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

模型介紹

Minimax minimax-m2

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows.


Why It Looks Great

  • MoE (Mixture of Experts) architecture for efficient processing
  • 196608 context window for long document handling
  • Competitive pricing at $0.3/$1.1 per million tokens

Key Features

  • Context Window: 196608 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMinimax
Model TypeLarge Language Model (LLM)
ArchitectureMoE (Mixture of Experts)
Context Window196608 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.3
Output$1.1

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: minimax/minimax-m2


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "minimax/minimax-m2",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: minimax/minimax-m2
  • Provider: Minimax

資訊

提供商minimax
類型llm

支援功能

輸入
文字
輸出
文字
上下文196,608
最大輸出196,608
視覺-
函式呼叫✓ 支援

API 存取指南

Base URLhttps://llm.wavespeed.ai/v1
API 端點chat/completions
Model IDminimax/minimax-m2

Minimax M2 API

minimax/minimax-m2

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows. With 10 billion activated parameters (230 billion total), it delivers near-frontier intelligence across general reasoning,...

輸入

$0.3 /M

輸出

$1.2 /M

上下文

197K

最大輸出

197K

工具調用

支援

在 WaveSpeedAI 試用 Minimax M2

透過我們的統一 API 接入 Minimax M2 — 相容 OpenAI、無冷啟動、透明計費。

關於 Minimax M2 的常見問題

Minimax M2 API 多少錢?+

WaveSpeedAI 定價:輸入每百萬 token $0.30,輸出每百萬 token $1.20。Prompt 快取與批次處理分別計費,可顯著降低長上下文、高重複任務的實際成本。

Minimax M2 的上下文視窗有多大?+

Minimax M2 每次請求最多支援 197K 上下文 token,輸出最多 197K token。

Minimax M2 是否相容 OpenAI?+

是的。WaveSpeedAI 透過 https://llm.wavespeed.ai/v1 的 OpenAI 相容端點提供 Minimax M2。將官方 OpenAI SDK 的 base URL 指向該位址,使用 WaveSpeedAI 的 API Key 即可,無需其他程式碼變更。

如何開始使用 Minimax M2?+

登入 WaveSpeedAI,在 Access Keys 建立 API Key,使用上方顯示的 model id 向 https://llm.wavespeed.ai/v1/chat/completions 發送請求。新帳號將獲得免費額度,用於試用 Minimax M2。

相關 LLM API