Vidu Q3 Pro est en ligne — essayez maintenant
deepseek
deepseek/deepseek-r1-distill-qwen-32b

deepseek/deepseek-r1-distill-qwen-32b

32,768 context · $0.29/M input tokens · $0.29/M output tokens

DeepSeek R1 Distill Qwen 32B is a distilled large language model based on Qwen 2.5 32B, using outputs from DeepSeek R1. It outperforms OpenAI's o1-mini across various benchmarks, achieving new...

Tarification

Paiement à l'usage

Aucun coût initial, payez uniquement ce que vous utilisez

Entrée$0.29 / M Tokens
Sortie$0.29 / M Tokens

Essayer le modèle

deepseek/deepseek-r1-distill-qwen-32b
En ligne
deepseek
Bonjour ! Je suis un assistant IA utile. Que puis-je faire pour vous ?

Utilisation de l'API

Utilisez les exemples de code suivants pour intégrer notre API :

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek/deepseek-r1-distill-qwen-32b",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Introduction au modèle

Deepseek deepseek-r1-distill-qwen-32b

DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2

DeepSeek R1 Distill Qwen 32B is a distilled large language model based on Qwen 2.5 32B, using outputs from DeepSeek R1. It outperforms OpenAI's o1-mini across various benchmarks, achieving new state-of-the-art results for dense models.\n\nOther benchmark results include:\n\n- AIME 2024 pass@1: 72.6\n- MATH-500 pass@1: 94.3\n- CodeForces Rating: 1691\n\nThe model leverages fine-tuning from DeepSeek R1's outputs, enabling competitive performance comparable to larger frontier models.


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 32768 context window for long document handling
  • Competitive pricing at $0.3/$0.3 per million tokens

Key Features

  • Context Window: 32768 tokens
  • Max Output: 32768 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderDeepseek
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window32768 tokens
Max Output32768 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.3
Output$0.3

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: deepseek/deepseek-r1-distill-qwen-32b


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek/deepseek-r1-distill-qwen-32b",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "deepseek/deepseek-r1-distill-qwen-32b",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: deepseek/deepseek-r1-distill-qwen-32b
  • Provider: Deepseek

Infos

Fournisseurdeepseek
Typellm

Fonctionnalités prises en charge

Entrée
Texte
Sortie
Texte
Contexte32,768
Sortie max32,768
Vision-
Function Calling-

Guide d'accès API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID du modèledeepseek/deepseek-r1-distill-qwen-32b

DeepSeek R1 Distill Qwen 32b API

deepseek/deepseek-r1-distill-qwen-32b

DeepSeek R1 Distill Qwen 32B is a distilled large language model based on [Qwen 2.5 32B](https://huggingface.co/Qwen/Qwen2.5-32B), using outputs from DeepSeek R1. It outperforms OpenAI's o1-mini across various benchmarks, achieving new...

Entrée

$0.29 /M

Sortie

$0.29 /M

Contexte

33K

Sortie max.

33K

Essayez DeepSeek R1 Distill Qwen 32b sur WaveSpeedAI

Accédez à DeepSeek R1 Distill Qwen 32b via notre API unifiée — compatible OpenAI, sans démarrages à froid, prix transparents.

Questions fréquentes sur DeepSeek R1 Distill Qwen 32b

Combien coûte l'API DeepSeek R1 Distill Qwen 32b ?+

Tarification sur WaveSpeedAI : $0.29 par million de tokens d'entrée et $0.29 par million de tokens de sortie. Le prompt caching et le traitement par batch sont facturés séparément et réduisent le coût effectif sur les charges longues et répétitives.

Quelle est la fenêtre de contexte de DeepSeek R1 Distill Qwen 32b ?+

DeepSeek R1 Distill Qwen 32b prend en charge jusqu'à 33K tokens de contexte et jusqu'à 33K tokens de sortie par requête.

DeepSeek R1 Distill Qwen 32b est-il compatible avec OpenAI ?+

Oui. WaveSpeedAI expose DeepSeek R1 Distill Qwen 32b via un endpoint compatible OpenAI à https://llm.wavespeed.ai/v1. Pointez le SDK officiel d'OpenAI vers cette base URL avec votre clé API WaveSpeedAI — aucune autre modification de code requise.

Comment démarrer avec DeepSeek R1 Distill Qwen 32b ?+

Connectez-vous à WaveSpeedAI, créez une clé API dans Access Keys, puis envoyez une requête à https://llm.wavespeed.ai/v1/chat/completions avec l'id du modèle affiché ci-dessus. Les nouveaux comptes reçoivent des crédits gratuits pour évaluer DeepSeek R1 Distill Qwen 32b.

APIs LLM associées