Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
minimax
minimax/minimax-m1

minimax/minimax-m1

1,000,000 context · $0.40/M input tokens · $2.20/M output tokens

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it...

料金

従量課金

初期費用なし、使った分だけお支払い

入力$0.40 / M Tokens
出力$2.20 / M Tokens

モデルを試す

minimax/minimax-m1
オンライン
minimax
こんにちは!お手伝いできるAIアシスタントです。何かお手伝いできることはありますか?

API 利用

以下のコード例を使用して API と連携してください:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m1",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

モデル紹介

Minimax minimax-m1

MiniMax-M1 is a high-performance large language model optimized for efficiency and accuracy in diverse tasks

MiniMax-M1 is a high-performance large language model optimized for efficiency and accuracy in diverse tasks.


Why It Looks Great

  • MoE (Mixture of Experts) architecture for efficient processing
  • 1000000 context window for long document handling
  • Competitive pricing at $0.4/$2.4 per million tokens

Key Features

  • Context Window: 1000000 tokens
  • Max Output: 40000 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMinimax
Model TypeLarge Language Model (LLM)
ArchitectureMoE (Mixture of Experts)
Context Window1000000 tokens
Max Output40000 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.4
Output$2.4

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: minimax/minimax-m1


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m1",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "minimax/minimax-m1",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: minimax/minimax-m1
  • Provider: Minimax

情報

プロバイダーminimax
タイプllm

対応機能

入力
テキスト
出力
テキスト
コンテキスト1,000,000
最大出力40,000
Vision-
Function Calling✓ 対応

API アクセスガイド

Base URLhttps://llm.wavespeed.ai/v1
API エンドポイントchat/completions
モデル IDminimax/minimax-m1

Minimax M1 API

minimax/minimax-m1

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it...

入力

$0.4 /M

出力

$2.2 /M

コンテキスト

1000K

最大出力

40K

ツール利用

対応

WaveSpeedAIでMinimax M1を試す

統合APIを通じてMinimax M1にアクセス — OpenAI互換、コールドスタートなし、透明な料金。

Minimax M1に関するよくある質問

Minimax M1 API の料金はいくらですか?+

WaveSpeedAI の料金: 入力 100 万トークンあたり $0.40、出力 100 万トークンあたり $2.20。プロンプトキャッシュとバッチ処理は別途料金で、長く反復的なワークロードでは実効コストを下げられます。

Minimax M1 のコンテキストウィンドウはどのくらいですか?+

Minimax M1 はリクエストあたり最大 1000K のコンテキストトークンと最大 40K の出力トークンをサポートします。

Minimax M1 は OpenAI 互換ですか?+

はい。WaveSpeedAI は OpenAI 互換エンドポイント https://llm.wavespeed.ai/v1 で Minimax M1 を提供します。公式 OpenAI SDK のベース URL をこちらに変更し WaveSpeedAI の API キーを設定するだけで利用可能です。

Minimax M1 を使い始めるには?+

WaveSpeedAI にサインインし、Access Keys で API キーを作成して、上に表示されているモデル ID を指定して https://llm.wavespeed.ai/v1/chat/completions にリクエストを送信してください。新規アカウントには Minimax M1 を試用できる無料クレジットが付与されます。

関連 LLM API