Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
minimax
minimax/minimax-m1

minimax/minimax-m1

1,000,000 context · $0.40/M input tokens · $2.20/M output tokens

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it...

Fiyatlandırma

Kullandıkça öde

Ön ödeme yok, yalnızca kullandığınız kadar ödeyin

Giriş$0.40 / M Tokens
Çıkış$2.20 / M Tokens

Modeli dene

minimax/minimax-m1
Çevrimiçi
minimax
Merhaba! Yardımcı bir yapay zeka asistanıyım. Size nasıl yardımcı olabilirim?

API Kullanımı

API'mizle entegre etmek için aşağıdaki kod örneklerini kullanın:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m1",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Model Tanıtımı

Minimax minimax-m1

MiniMax-M1 is a high-performance large language model optimized for efficiency and accuracy in diverse tasks

MiniMax-M1 is a high-performance large language model optimized for efficiency and accuracy in diverse tasks.


Why It Looks Great

  • MoE (Mixture of Experts) architecture for efficient processing
  • 1000000 context window for long document handling
  • Competitive pricing at $0.4/$2.4 per million tokens

Key Features

  • Context Window: 1000000 tokens
  • Max Output: 40000 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMinimax
Model TypeLarge Language Model (LLM)
ArchitectureMoE (Mixture of Experts)
Context Window1000000 tokens
Max Output40000 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.4
Output$2.4

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: minimax/minimax-m1


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m1",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "minimax/minimax-m1",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: minimax/minimax-m1
  • Provider: Minimax

Bilgi

Sağlayıcıminimax
Türllm

Desteklenen İşlevsellik

Giriş
Metin
Çıkış
Metin
Bağlam1,000,000
Maks. Çıkış40,000
Vision-
Function Calling✓ Destekleniyor

API Erişim Kılavuzu

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
Model IDminimax/minimax-m1

Minimax M1 API

minimax/minimax-m1

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it...

Giriş

$0.4 /M

Çıkış

$2.2 /M

Bağlam

1000K

Maks. Çıkış

40K

Araç Kullanımı

Destekleniyor

Minimax M1'i WaveSpeedAI'da deneyin

Birleşik API'miz aracılığıyla Minimax M1'e erişin — OpenAI uyumlu, soğuk başlatma yok, şeffaf fiyatlandırma.

Minimax M1 hakkında sık sorulan sorular

Minimax M1 API ücreti ne kadar?+

WaveSpeedAI fiyatlandırması: milyon giriş tokenı başına $0.40 ve milyon çıkış tokenı başına $2.20. Prompt caching ve toplu işleme ayrı faturalanır ve uzun, tekrar eden yüklerde etkin maliyeti düşürür.

Minimax M1'in bağlam penceresi nedir?+

Minimax M1 istek başına 1000K bağlam tokenını ve 40K çıkış tokenını destekler.

Minimax M1 OpenAI uyumlu mu?+

Evet. WaveSpeedAI, Minimax M1 modelini https://llm.wavespeed.ai/v1 adresindeki OpenAI uyumlu endpoint üzerinden sunar. Resmi OpenAI SDK'sını WaveSpeedAI API anahtarınızla bu base URL'ye yöneltin — başka kod değişikliği gerekmez.

Minimax M1'e nasıl başlarım?+

WaveSpeedAI'a giriş yapın, Access Keys'te bir API anahtarı oluşturun, ardından yukarıda gösterilen model id ile https://llm.wavespeed.ai/v1/chat/completions adresine bir istek gönderin. Yeni hesaplar Minimax M1'i değerlendirmek için ücretsiz krediler alır.

İlgili LLM API'leri