qwen/qwen3-coder
262,144 context · $0.22/M input tokens · $1.00/M output tokens
Qwen3-Coder-480B-A35B-Instruct is a Mixture-of-Experts (MoE) code generation model developed by the Qwen team. It is optimized for agentic coding tasks such as function calling, tool use, and long-context reasoning over...
Paiement à l'usage
Aucun coût initial, payez uniquement ce que vous utilisez
Utilisez les exemples de code suivants pour intégrer notre API :
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="qwen/qwen3-coder",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)Qwen3-Coder-480B-A35B-Instruct is a Mixture-of-Experts (MoE) code generation model developed by the Qwen team
Qwen3-Coder-480B-A35B-Instruct is a Mixture-of-Experts (MoE) code generation model developed by the Qwen team. It is optimized for agentic coding tasks such as function calling, tool use, and long-context reasoning over repositories. The model features 480 billion total parameters, with 35 billion active per forward pass (8 out of 160 experts).
Pricing for the Alibaba endpoints varies by context length. Once a request is greater than 128k input tokens, the higher pricing is used.
| Specification | Value |
|---|---|
| Provider | Qwen |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 262144 tokens |
| Max Output | tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.2 |
| Output | $1.1 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: qwen/qwen3-coder
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="qwen/qwen3-coder",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "qwen/qwen3-coder",
"messages": [{"role": "user", "content": "Hello!"}]
}'
qwen/qwen3-coder
Qwen3-Coder-480B-A35B-Instruct is a Mixture-of-Experts (MoE) code generation model developed by the Qwen team. It is optimized for agentic coding tasks such as function calling, tool use, and long-context reasoning over...
Entrée
$0.22 /M
Sortie
$1 /M
Contexte
262K
Utilisation d'outils
Pris en charge
Accédez à Qwen3 Coder via notre API unifiée — compatible OpenAI, sans démarrages à froid, prix transparents.
Tarification sur WaveSpeedAI : $0.22 par million de tokens d'entrée et $1.00 par million de tokens de sortie. Le prompt caching et le traitement par batch sont facturés séparément et réduisent le coût effectif sur les charges longues et répétitives.
Qwen3 Coder prend en charge jusqu'à 262K tokens de contexte et jusqu'à — tokens de sortie par requête.
Oui. WaveSpeedAI expose Qwen3 Coder via un endpoint compatible OpenAI à https://llm.wavespeed.ai/v1. Pointez le SDK officiel d'OpenAI vers cette base URL avec votre clé API WaveSpeedAI — aucune autre modification de code requise.
Connectez-vous à WaveSpeedAI, créez une clé API dans Access Keys, puis envoyez une requête à https://llm.wavespeed.ai/v1/chat/completions avec l'id du modèle affiché ci-dessus. Les nouveaux comptes reçoivent des crédits gratuits pour évaluer Qwen3 Coder.