Seedance 2.0 | Special Offer ✦ 10% OFF NOW
alibaba
qwen/qwen3-vl-8b-thinking

qwen/qwen3-vl-8b-thinking

131,072 context · $0.12/M input tokens · $1.36/M output tokens

Qwen3-VL-8B-Thinking is the reasoning-optimized variant of the Qwen3-VL-8B multimodal model, designed for advanced visual and textual reasoning across complex scenes, documents, and temporal sequences. It integrates enhanced multimodal alignment and...

Cennik

Płać za użycie

Bez kosztów początkowych, płacisz tylko za to, czego używasz

Wejście$0.12 / M Tokens
Wyjście$1.36 / M Tokens

Użycie API

Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="qwen/qwen3-vl-8b-thinking",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Wprowadzenie do modelu

Qwen qwen3-vl-8b-thinking

qwen qwen3-vl-8b-thinking


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 256000 context window for long document handling
  • Competitive pricing at $0.2/$2.3 per million tokens

Key Features

  • Context Window: 256000 tokens
  • Max Output: 32768 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderQwen
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window256000 tokens
Max Output32768 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.2
Output$2.3

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: qwen/qwen3-vl-8b-thinking


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="qwen/qwen3-vl-8b-thinking",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "qwen/qwen3-vl-8b-thinking",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: qwen/qwen3-vl-8b-thinking
  • Provider: Qwen

Info

Dostawcaalibaba
Typllm

Obsługiwane funkcje

Wejście
TekstObraz
Wyjście
Tekst
Kontekst131,072
Maks. wyjście32,768
Vision✓ Obsługiwane
Function Calling✓ Obsługiwane

Przewodnik dostępu do API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID modeluqwen/qwen3-vl-8b-thinking

Qwen3 Vl 8b Thinking API

qwen/qwen3-vl-8b-thinking

Qwen3-VL-8B-Thinking is the reasoning-optimized variant of the Qwen3-VL-8B multimodal model, designed for advanced visual and textual reasoning across complex scenes, documents, and temporal sequences. It integrates enhanced multimodal alignment and...

Wejście

$0.117 /M

Wyjście

$1.365 /M

Kontekst

131K

Maks. wyjście

33K

Vision

Obsługiwane

Użycie narzędzi

Obsługiwane

Wypróbuj Qwen3 Vl 8b Thinking w WaveSpeedAI

Uzyskaj dostęp do Qwen3 Vl 8b Thinking przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.

Najczęstsze pytania o Qwen3 Vl 8b Thinking

Ile kosztuje API Qwen3 Vl 8b Thinking?+

Cennik na WaveSpeedAI: $0.12 za milion tokenów wejściowych i $1.36 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.

Jakie jest okno kontekstu Qwen3 Vl 8b Thinking?+

Qwen3 Vl 8b Thinking obsługuje do 131K tokenów kontekstu i do 33K tokenów wyjściowych na zapytanie.

Czy Qwen3 Vl 8b Thinking jest kompatybilny z OpenAI?+

Tak. WaveSpeedAI udostępnia Qwen3 Vl 8b Thinking przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.

Jak zacząć z Qwen3 Vl 8b Thinking?+

Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Qwen3 Vl 8b Thinking.

Powiązane API LLM