Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
minimax
minimax/minimax-m1

minimax/minimax-m1

1,000,000 context · $0.40/M input tokens · $2.20/M output tokens

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it...

Цены

Оплата по факту использования

Никаких авансовых платежей — платите только за то, чем пользуетесь

Ввод$0.40 / M Tokens
Вывод$2.20 / M Tokens

Попробовать модель

minimax/minimax-m1
В сети
minimax
Привет! Я полезный ИИ-ассистент. Чем могу помочь?

Использование API

Используйте следующие примеры кода для интеграции с нашим API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m1",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Описание модели

Minimax minimax-m1

MiniMax-M1 is a high-performance large language model optimized for efficiency and accuracy in diverse tasks

MiniMax-M1 is a high-performance large language model optimized for efficiency and accuracy in diverse tasks.


Why It Looks Great

  • MoE (Mixture of Experts) architecture for efficient processing
  • 1000000 context window for long document handling
  • Competitive pricing at $0.4/$2.4 per million tokens

Key Features

  • Context Window: 1000000 tokens
  • Max Output: 40000 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMinimax
Model TypeLarge Language Model (LLM)
ArchitectureMoE (Mixture of Experts)
Context Window1000000 tokens
Max Output40000 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.4
Output$2.4

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: minimax/minimax-m1


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m1",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "minimax/minimax-m1",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: minimax/minimax-m1
  • Provider: Minimax

Информация

Провайдерminimax
Типllm

Поддерживаемые возможности

Ввод
Текст
Вывод
Текст
Контекст1,000,000
Макс. вывод40,000
Vision-
Function Calling✓ Поддерживается

Руководство по доступу к API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID моделиminimax/minimax-m1

Minimax M1 API

minimax/minimax-m1

MiniMax-M1 is a large-scale, open-weight reasoning model designed for extended context and high-efficiency inference. It leverages a hybrid Mixture-of-Experts (MoE) architecture paired with a custom "lightning attention" mechanism, allowing it...

Ввод

$0.4 /M

Вывод

$2.2 /M

Контекст

1000K

Макс. вывод

40K

Использование инструментов

Поддерживается

Попробуйте Minimax M1 на WaveSpeedAI

Доступ к Minimax M1 через наш единый API — совместимость с OpenAI, без холодных стартов, прозрачные цены.

Часто задаваемые вопросы о Minimax M1

Сколько стоит Minimax M1 через API?+

Цены на WaveSpeedAI: $0.40 за миллион входных токенов и $2.20 за миллион выходных токенов. Prompt caching и batch processing тарифицируются отдельно и снижают эффективную стоимость длинных повторяющихся нагрузок.

Каково контекстное окно Minimax M1?+

Minimax M1 поддерживает до 1000K токенов контекста и до 40K токенов вывода на запрос.

Совместим ли Minimax M1 с OpenAI?+

Да. WaveSpeedAI предоставляет Minimax M1 через OpenAI-совместимый endpoint по адресу https://llm.wavespeed.ai/v1. Направьте официальный OpenAI SDK на этот base URL с ключом API WaveSpeedAI — других изменений в коде не требуется.

Как начать работу с Minimax M1?+

Войдите в WaveSpeedAI, создайте API-ключ в Access Keys и отправьте запрос на https://llm.wavespeed.ai/v1/chat/completions с указанным выше model id. Новые аккаунты получают бесплатные кредиты для оценки Minimax M1.

Связанные LLM API