minimax/minimax-m2.7
204,800 context · $0.30/M input tokens · $1.20/M output tokens
MiniMax M2.7 is a next-generation flagship text model designed for agent-centric workflows, with strong improvements in coding, complex office tasks, and long-context reasoning. Built on the OpenClaw (Agent Harness) framework, it enables continuous self-improvement in real-world environments, allowing the model to actively participate in execution and decision-making for higher-quality and more efficient task completion.
Paiement à l'usage
Aucun coût initial, payez uniquement ce que vous utilisez
Utilisez les exemples de code suivants pour intégrer notre API :
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="minimax/minimax-m2.7",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)MiniMax-M2
MiniMax-M2.7 represents the journey of recursive self-improvement with enhanced reasoning and agentic capabilities.
| Specification | Value |
|---|---|
| Provider | Minimax |
| Model Type | Large Language Model (LLM) |
| Architecture | MoE (Mixture of Experts) |
| Context Window | 204800 tokens |
| Max Output | tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.3 |
| Output | $1.2 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: minimax/minimax-m2.7
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="minimax/minimax-m2.7",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "minimax/minimax-m2.7",
"messages": [{"role": "user", "content": "Hello!"}]
}'
minimax/minimax-m2.7
MiniMax M2.7 is a next-generation flagship text model designed for agent-centric workflows, with strong improvements in coding, complex office tasks, and long-context reasoning. Built on the OpenClaw (Agent Harness) framework, it enables continuous self-improvement in real-world environments, allowing the model to actively participate in execution and decision-making for higher-quality and more efficient task completion.
Entrée
$0.3 /M
Sortie
$1.2 /M
Contexte
205K
Utilisation d'outils
Pris en charge
Accédez à Minimax M2.7 via notre API unifiée — compatible OpenAI, sans démarrages à froid, prix transparents.
Tarification sur WaveSpeedAI : $0.30 par million de tokens d'entrée et $1.20 par million de tokens de sortie. Le prompt caching et le traitement par batch sont facturés séparément et réduisent le coût effectif sur les charges longues et répétitives.
Minimax M2.7 prend en charge jusqu'à 205K tokens de contexte et jusqu'à — tokens de sortie par requête.
Oui. WaveSpeedAI expose Minimax M2.7 via un endpoint compatible OpenAI à https://llm.wavespeed.ai/v1. Pointez le SDK officiel d'OpenAI vers cette base URL avec votre clé API WaveSpeedAI — aucune autre modification de code requise.
Connectez-vous à WaveSpeedAI, créez une clé API dans Access Keys, puis envoyez une requête à https://llm.wavespeed.ai/v1/chat/completions avec l'id du modèle affiché ci-dessus. Les nouveaux comptes reçoivent des crédits gratuits pour évaluer Minimax M2.7.