Seedance 2.0 | Special Offer ✦ 10% OFF NOW
deepseek
deepseek/deepseek-chat-v3-0324

deepseek/deepseek-chat-v3-0324

163,840 context · $0.20/M input tokens · $0.77/M output tokens

DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team. It succeeds the DeepSeek V3 model and performs really well...

Цены

Оплата по факту использования

Никаких авансовых платежей — платите только за то, чем пользуетесь

Ввод$0.20 / M Tokens
Вывод$0.77 / M Tokens

Использование API

Используйте следующие примеры кода для интеграции с нашим API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek/deepseek-chat-v3-0324",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Описание модели

Deepseek deepseek-chat-v3-0324

DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team

DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team.


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 163840 context window for long document handling
  • Competitive pricing at $0.2/$0.9 per million tokens

Key Features

  • Context Window: 163840 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderDeepseek
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window163840 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.2
Output$0.9

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: deepseek/deepseek-chat-v3-0324


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek/deepseek-chat-v3-0324",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "deepseek/deepseek-chat-v3-0324",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: deepseek/deepseek-chat-v3-0324
  • Provider: Deepseek

Информация

Провайдерdeepseek
Типllm

Поддерживаемые возможности

Ввод
Текст
Вывод
Текст
Контекст163,840
Макс. вывод65,536
Vision-
Function Calling✓ Поддерживается

Руководство по доступу к API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID моделиdeepseek/deepseek-chat-v3-0324

DeepSeek Chat V3 0324 API

deepseek/deepseek-chat-v3-0324

DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team. It succeeds the DeepSeek V3 model and performs really well...

Ввод

$0.2 /M

Вывод

$0.77 /M

Контекст

164K

Макс. вывод

66K

Использование инструментов

Поддерживается

Попробуйте DeepSeek Chat V3 0324 на WaveSpeedAI

Доступ к DeepSeek Chat V3 0324 через наш единый API — совместимость с OpenAI, без холодных стартов, прозрачные цены.

Открыть Playground

Часто задаваемые вопросы о DeepSeek Chat V3 0324

Сколько стоит DeepSeek Chat V3 0324 через API?+

Цены на WaveSpeedAI: $0.20 за миллион входных токенов и $0.77 за миллион выходных токенов. Prompt caching и batch processing тарифицируются отдельно и снижают эффективную стоимость длинных повторяющихся нагрузок.

Каково контекстное окно DeepSeek Chat V3 0324?+

DeepSeek Chat V3 0324 поддерживает до 164K токенов контекста и до 66K токенов вывода на запрос.

Совместим ли DeepSeek Chat V3 0324 с OpenAI?+

Да. WaveSpeedAI предоставляет DeepSeek Chat V3 0324 через OpenAI-совместимый endpoint по адресу https://llm.wavespeed.ai/v1. Направьте официальный OpenAI SDK на этот base URL с ключом API WaveSpeedAI — других изменений в коде не требуется.

Как начать работу с DeepSeek Chat V3 0324?+

Войдите в WaveSpeedAI, создайте API-ключ в Access Keys и отправьте запрос на https://llm.wavespeed.ai/v1/chat/completions с указанным выше model id. Новые аккаунты получают бесплатные кредиты для оценки DeepSeek Chat V3 0324.

Связанные LLM API