Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
minimax
minimax/minimax-m2

minimax/minimax-m2

196,608 context · $0.30/M input tokens · $1.20/M output tokens

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows. With 10 billion activated parameters (230 billion total), it delivers near-frontier intelligence across general reasoning,...

Preise

Pay-per-Use

Keine Vorabkosten, zahlen Sie nur, was Sie nutzen

Eingabe$0.30 / M Tokens
Ausgabe$1.20 / M Tokens

Modell ausprobieren

minimax/minimax-m2
Online
minimax
Hallo! Ich bin ein hilfreicher KI-Assistent. Womit kann ich helfen?

API-Nutzung

Verwenden Sie die folgenden Codebeispiele zur Integration mit unserer API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Modelleinführung

Minimax minimax-m2

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows.


Why It Looks Great

  • MoE (Mixture of Experts) architecture for efficient processing
  • 196608 context window for long document handling
  • Competitive pricing at $0.3/$1.1 per million tokens

Key Features

  • Context Window: 196608 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMinimax
Model TypeLarge Language Model (LLM)
ArchitectureMoE (Mixture of Experts)
Context Window196608 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.3
Output$1.1

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: minimax/minimax-m2


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="minimax/minimax-m2",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "minimax/minimax-m2",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: minimax/minimax-m2
  • Provider: Minimax

Info

Anbieterminimax
Typllm

Unterstützte Funktionen

Eingabe
Text
Ausgabe
Text
Kontext196,608
Max. Ausgabe196,608
Vision-
Function Calling✓ Unterstützt

API-Zugriffsanleitung

Base URLhttps://llm.wavespeed.ai/v1
API-Endpunktchat/completions
Modell-IDminimax/minimax-m2

Minimax M2 API

minimax/minimax-m2

MiniMax-M2 is a compact, high-efficiency large language model optimized for end-to-end coding and agentic workflows. With 10 billion activated parameters (230 billion total), it delivers near-frontier intelligence across general reasoning,...

Eingabe

$0.3 /M

Ausgabe

$1.2 /M

Kontext

197K

Max. Ausgabe

197K

Tool-Nutzung

Unterstützt

Minimax M2 auf WaveSpeedAI testen

Zugriff auf Minimax M2 über unsere einheitliche API — OpenAI-kompatibel, keine Kaltstarts, transparente Preise.

Häufige Fragen zu Minimax M2

Wie viel kostet die Minimax M2-API?+

Preise auf WaveSpeedAI: $0.30 pro Million Input-Tokens und $1.20 pro Million Output-Tokens. Prompt-Caching und Batch-Verarbeitung werden separat berechnet und reduzieren die effektiven Kosten bei langen, sich wiederholenden Workloads.

Wie groß ist das Kontextfenster von Minimax M2?+

Minimax M2 unterstützt bis zu 197K Kontext-Tokens und bis zu 197K Output-Tokens pro Anfrage.

Ist Minimax M2 OpenAI-kompatibel?+

Ja. WaveSpeedAI stellt Minimax M2 über einen OpenAI-kompatiblen Endpunkt unter https://llm.wavespeed.ai/v1 bereit. Richten Sie das offizielle OpenAI SDK mit Ihrem WaveSpeedAI-API-Schlüssel auf diese Base-URL — keine weiteren Codeänderungen erforderlich.

Wie starte ich mit Minimax M2?+

Bei WaveSpeedAI anmelden, in Access Keys einen API-Schlüssel erstellen und eine Anfrage an https://llm.wavespeed.ai/v1/chat/completions mit der oben angezeigten Model-ID senden. Neue Konten erhalten kostenlose Credits, um Minimax M2 zu testen.

Verwandte LLM-APIs