Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
minimax
minimax/minimax-m2

minimax/minimax-m2

196,608 context · $0.30/M input tokens · $1.20/M output tokens

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows. With 10 billion activated parameters (230 billion total), it delivers near-frontier intelligence across general reasoning,...

Fiyatlandırma

Kullandıkça öde

Ön ödeme yok, yalnızca kullandığınız kadar ödeyin

Giriş$0.30 / M Tokens
Çıkış$1.20 / M Tokens

Modeli dene

minimax/minimax-m2
Çevrimiçi
minimax
Merhaba! Yardımcı bir yapay zeka asistanıyım. Size nasıl yardımcı olabilirim?

API Kullanımı

API'mizle entegre etmek için aşağıdaki kod örneklerini kullanın:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Model Tanıtımı

Minimax minimax-m2

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows.


Why It Looks Great

  • MoE (Mixture of Experts) architecture for efficient processing
  • 196608 context window for long document handling
  • Competitive pricing at $0.3/$1.1 per million tokens

Key Features

  • Context Window: 196608 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMinimax
Model TypeLarge Language Model (LLM)
ArchitectureMoE (Mixture of Experts)
Context Window196608 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.3
Output$1.1

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: minimax/minimax-m2


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "minimax/minimax-m2",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: minimax/minimax-m2
  • Provider: Minimax

Bilgi

Sağlayıcıminimax
Türllm

Desteklenen İşlevsellik

Giriş
Metin
Çıkış
Metin
Bağlam196,608
Maks. Çıkış196,608
Vision-
Function Calling✓ Destekleniyor

API Erişim Kılavuzu

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
Model IDminimax/minimax-m2

Minimax M2 API

minimax/minimax-m2

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows. With 10 billion activated parameters (230 billion total), it delivers near-frontier intelligence across general reasoning,...

Giriş

$0.3 /M

Çıkış

$1.2 /M

Bağlam

197K

Maks. Çıkış

197K

Araç Kullanımı

Destekleniyor

Minimax M2'i WaveSpeedAI'da deneyin

Birleşik API'miz aracılığıyla Minimax M2'e erişin — OpenAI uyumlu, soğuk başlatma yok, şeffaf fiyatlandırma.

Minimax M2 hakkında sık sorulan sorular

Minimax M2 API ücreti ne kadar?+

WaveSpeedAI fiyatlandırması: milyon giriş tokenı başına $0.30 ve milyon çıkış tokenı başına $1.20. Prompt caching ve toplu işleme ayrı faturalanır ve uzun, tekrar eden yüklerde etkin maliyeti düşürür.

Minimax M2'in bağlam penceresi nedir?+

Minimax M2 istek başına 197K bağlam tokenını ve 197K çıkış tokenını destekler.

Minimax M2 OpenAI uyumlu mu?+

Evet. WaveSpeedAI, Minimax M2 modelini https://llm.wavespeed.ai/v1 adresindeki OpenAI uyumlu endpoint üzerinden sunar. Resmi OpenAI SDK'sını WaveSpeedAI API anahtarınızla bu base URL'ye yöneltin — başka kod değişikliği gerekmez.

Minimax M2'e nasıl başlarım?+

WaveSpeedAI'a giriş yapın, Access Keys'te bir API anahtarı oluşturun, ardından yukarıda gösterilen model id ile https://llm.wavespeed.ai/v1/chat/completions adresine bir istek gönderin. Yeni hesaplar Minimax M2'i değerlendirmek için ücretsiz krediler alır.

İlgili LLM API'leri