Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
alibaba
qwen/qwen3-coder

qwen/qwen3-coder

262,144 context · $0.22/M input tokens · $1.00/M output tokens

Qwen3-Coder-480B-A35B-Instruct is a Mixture-of-Experts (MoE) code generation model developed by the Qwen team. It is optimized for agentic coding tasks such as function calling, tool use, and long-context reasoning over...

Цены

Оплата по факту использования

Никаких авансовых платежей — платите только за то, чем пользуетесь

Ввод$0.22 / M Tokens
Вывод$1.00 / M Tokens

Использование API

Используйте следующие примеры кода для интеграции с нашим API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="qwen/qwen3-coder",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Описание модели

Qwen qwen3-coder

Qwen3-Coder-480B-A35B-Instruct is a Mixture-of-Experts (MoE) code generation model developed by the Qwen team

Qwen3-Coder-480B-A35B-Instruct is a Mixture-of-Experts (MoE) code generation model developed by the Qwen team. It is optimized for agentic coding tasks such as function calling, tool use, and long-context reasoning over repositories. The model features 480 billion total parameters, with 35 billion active per forward pass (8 out of 160 experts).

Pricing for the Alibaba endpoints varies by context length. Once a request is greater than 128k input tokens, the higher pricing is used.


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 262144 context window for long document handling
  • Competitive pricing at $0.2/$1.1 per million tokens

Key Features

  • Context Window: 262144 tokens
  • Max Output: N/A tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderQwen
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window262144 tokens
Max Outputtokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.2
Output$1.1

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: qwen/qwen3-coder


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="qwen/qwen3-coder",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "qwen/qwen3-coder",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: qwen/qwen3-coder
  • Provider: Qwen

Информация

Провайдерalibaba
Типllm

Поддерживаемые возможности

Ввод
Текст
Вывод
Текст
Контекст262,144
Макс. вывод-
Vision-
Function Calling✓ Поддерживается

Руководство по доступу к API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID моделиqwen/qwen3-coder

Qwen3 Coder API

qwen/qwen3-coder

Qwen3-Coder-480B-A35B-Instruct is a Mixture-of-Experts (MoE) code generation model developed by the Qwen team. It is optimized for agentic coding tasks such as function calling, tool use, and long-context reasoning over...

Ввод

$0.22 /M

Вывод

$1 /M

Контекст

262K

Использование инструментов

Поддерживается

Попробуйте Qwen3 Coder на WaveSpeedAI

Доступ к Qwen3 Coder через наш единый API — совместимость с OpenAI, без холодных стартов, прозрачные цены.

Часто задаваемые вопросы о Qwen3 Coder

Сколько стоит Qwen3 Coder через API?+

Цены на WaveSpeedAI: $0.22 за миллион входных токенов и $1.00 за миллион выходных токенов. Prompt caching и batch processing тарифицируются отдельно и снижают эффективную стоимость длинных повторяющихся нагрузок.

Каково контекстное окно Qwen3 Coder?+

Qwen3 Coder поддерживает до 262K токенов контекста и до — токенов вывода на запрос.

Совместим ли Qwen3 Coder с OpenAI?+

Да. WaveSpeedAI предоставляет Qwen3 Coder через OpenAI-совместимый endpoint по адресу https://llm.wavespeed.ai/v1. Направьте официальный OpenAI SDK на этот base URL с ключом API WaveSpeedAI — других изменений в коде не требуется.

Как начать работу с Qwen3 Coder?+

Войдите в WaveSpeedAI, создайте API-ключ в Access Keys и отправьте запрос на https://llm.wavespeed.ai/v1/chat/completions с указанным выше model id. Новые аккаунты получают бесплатные кредиты для оценки Qwen3 Coder.

Связанные LLM API