qwen/qwen3-max-thinking
262,144 context · $1.20/M input tokens · $6.00/M output tokens
Qwen3-Max-Thinking is the flagship reasoning model in the Qwen3 series, designed for high-stakes cognitive tasks that require deep, multi-step reasoning. By significantly scaling model capacity and reinforcement learning compute, it delivers major gains in factual accuracy, complex reasoning, instruction following, alignment with human preferences, and agentic behavior.
Płać za użycie
Bez kosztów początkowych, płacisz tylko za to, czego używasz
Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="qwen/qwen3-max-thinking",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)Qwen3-Max-Thinking is the flagship reasoning model in the Qwen3 series, designed for high-stakes cognitive tasks that require deep, multi-step reasoni
Qwen3-Max-Thinking is the flagship reasoning model in the Qwen3 series, designed for high-stakes cognitive tasks that require deep, multi-step reasoning. By significantly scaling model capacity and reinforcement learning compute, it delivers major gains in factual accuracy, complex reasoning, instruction following, alignment with human preferences, and agentic behavior.
| Specification | Value |
|---|---|
| Provider | Qwen |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 262144 tokens |
| Max Output | 32768 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.8 |
| Output | $3.9 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: qwen/qwen3-max-thinking
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="qwen/qwen3-max-thinking",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "qwen/qwen3-max-thinking",
"messages": [{"role": "user", "content": "Hello!"}]
}'
qwen/qwen3-max-thinking
Qwen3-Max-Thinking is the flagship reasoning model in the Qwen3 series, designed for high-stakes cognitive tasks that require deep, multi-step reasoning. By significantly scaling model capacity and reinforcement learning compute, it delivers major gains in factual accuracy, complex reasoning, instruction following, alignment with human preferences, and agentic behavior.
Wejście
$1.2 /M
Wyjście
$6 /M
Kontekst
262K
Maks. wyjście
33K
Użycie narzędzi
Obsługiwane
Uzyskaj dostęp do Qwen3 Max Thinking przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.
Otwórz PlaygroundCennik na WaveSpeedAI: $1.20 za milion tokenów wejściowych i $6.00 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.
Qwen3 Max Thinking obsługuje do 262K tokenów kontekstu i do 33K tokenów wyjściowych na zapytanie.
Tak. WaveSpeedAI udostępnia Qwen3 Max Thinking przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.
Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Qwen3 Max Thinking.