Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
minimax
minimax/minimax-m2

minimax/minimax-m2

196,608 context · $0.30/M input tokens · $1.20/M output tokens

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows. With 10 billion activated parameters (230 billion total), it delivers near-frontier intelligence across general reasoning,...

料金

従量課金

初期費用なし、使った分だけお支払い

入力$0.30 / M Tokens
出力$1.20 / M Tokens

モデルを試す

minimax/minimax-m2
オンライン
minimax
こんにちは!お手伝いできるAIアシスタントです。何かお手伝いできることはありますか?

API 利用

以下のコード例を使用して API と連携してください:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

モデル紹介

Minimax minimax-m2

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows.


Why It Looks Great

  • MoE (Mixture of Experts) architecture for efficient processing
  • 196608 context window for long document handling
  • Competitive pricing at $0.3/$1.1 per million tokens

Key Features

  • Context Window: 196608 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMinimax
Model TypeLarge Language Model (LLM)
ArchitectureMoE (Mixture of Experts)
Context Window196608 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.3
Output$1.1

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: minimax/minimax-m2


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "minimax/minimax-m2",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: minimax/minimax-m2
  • Provider: Minimax

情報

プロバイダーminimax
タイプllm

対応機能

入力
テキスト
出力
テキスト
コンテキスト196,608
最大出力196,608
Vision-
Function Calling✓ 対応

API アクセスガイド

Base URLhttps://llm.wavespeed.ai/v1
API エンドポイントchat/completions
モデル IDminimax/minimax-m2

Minimax M2 API

minimax/minimax-m2

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows. With 10 billion activated parameters (230 billion total), it delivers near-frontier intelligence across general reasoning,...

入力

$0.3 /M

出力

$1.2 /M

コンテキスト

197K

最大出力

197K

ツール利用

対応

WaveSpeedAIでMinimax M2を試す

統合APIを通じてMinimax M2にアクセス — OpenAI互換、コールドスタートなし、透明な料金。

Minimax M2に関するよくある質問

Minimax M2 API の料金はいくらですか?+

WaveSpeedAI の料金: 入力 100 万トークンあたり $0.30、出力 100 万トークンあたり $1.20。プロンプトキャッシュとバッチ処理は別途料金で、長く反復的なワークロードでは実効コストを下げられます。

Minimax M2 のコンテキストウィンドウはどのくらいですか?+

Minimax M2 はリクエストあたり最大 197K のコンテキストトークンと最大 197K の出力トークンをサポートします。

Minimax M2 は OpenAI 互換ですか?+

はい。WaveSpeedAI は OpenAI 互換エンドポイント https://llm.wavespeed.ai/v1 で Minimax M2 を提供します。公式 OpenAI SDK のベース URL をこちらに変更し WaveSpeedAI の API キーを設定するだけで利用可能です。

Minimax M2 を使い始めるには?+

WaveSpeedAI にサインインし、Access Keys で API キーを作成して、上に表示されているモデル ID を指定して https://llm.wavespeed.ai/v1/chat/completions にリクエストを送信してください。新規アカウントには Minimax M2 を試用できる無料クレジットが付与されます。

関連 LLM API