moonshotai/kimi-k2-thinking
262,144 context · $0.60/M input tokens · $2.50/M output tokens
Kimi K2 Thinking is Moonshot AI’s most advanced open reasoning model to date, extending the K2 series into agentic, long-horizon reasoning. Built on the trillion-parameter Mixture-of-Experts (MoE) architecture introduced in...
Paiement à l'usage
Aucun coût initial, payez uniquement ce que vous utilisez
Utilisez les exemples de code suivants pour intégrer notre API :
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="moonshotai/kimi-k2-thinking",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)moonshotai kimi-k2-thinking
| Specification | Value |
|---|---|
| Provider | Moonshotai |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 262144 tokens |
| Max Output | 65535 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.4 |
| Output | $1.9 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: moonshotai/kimi-k2-thinking
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="moonshotai/kimi-k2-thinking",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "moonshotai/kimi-k2-thinking",
"messages": [{"role": "user", "content": "Hello!"}]
}'
moonshotai/kimi-k2-thinking
Kimi K2 Thinking is Moonshot AI’s most advanced open reasoning model to date, extending the K2 series into agentic, long-horizon reasoning. Built on the trillion-parameter Mixture-of-Experts (MoE) architecture introduced in...
Entrée
$0.6 /M
Sortie
$2.5 /M
Contexte
262K
Sortie max.
66K
Utilisation d'outils
Pris en charge
Accédez à Kimi K2 Thinking via notre API unifiée — compatible OpenAI, sans démarrages à froid, prix transparents.
Tarification sur WaveSpeedAI : $0.60 par million de tokens d'entrée et $2.50 par million de tokens de sortie. Le prompt caching et le traitement par batch sont facturés séparément et réduisent le coût effectif sur les charges longues et répétitives.
Kimi K2 Thinking prend en charge jusqu'à 262K tokens de contexte et jusqu'à 66K tokens de sortie par requête.
Oui. WaveSpeedAI expose Kimi K2 Thinking via un endpoint compatible OpenAI à https://llm.wavespeed.ai/v1. Pointez le SDK officiel d'OpenAI vers cette base URL avec votre clé API WaveSpeedAI — aucune autre modification de code requise.
Connectez-vous à WaveSpeedAI, créez une clé API dans Access Keys, puis envoyez une requête à https://llm.wavespeed.ai/v1/chat/completions avec l'id du modèle affiché ci-dessus. Les nouveaux comptes reçoivent des crédits gratuits pour évaluer Kimi K2 Thinking.