Seedance 2.0 | Special Offer ✦ 10% OFF NOW
deepseek
deepseek/deepseek-chat-v3-0324

deepseek/deepseek-chat-v3-0324

163,840 context · $0.20/M input tokens · $0.77/M output tokens

DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team. It succeeds the DeepSeek V3 model and performs really well...

Precios

Pago por uso

Sin costos iniciales, paga solo por lo que uses

Entrada$0.20 / M Tokens
Salida$0.77 / M Tokens

Uso de API

Usa los siguientes ejemplos de código para integrar con nuestra API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek/deepseek-chat-v3-0324",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Introducción del modelo

Deepseek deepseek-chat-v3-0324

DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team

DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team.


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 163840 context window for long document handling
  • Competitive pricing at $0.2/$0.9 per million tokens

Key Features

  • Context Window: 163840 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderDeepseek
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window163840 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.2
Output$0.9

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: deepseek/deepseek-chat-v3-0324


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="deepseek/deepseek-chat-v3-0324",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "deepseek/deepseek-chat-v3-0324",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: deepseek/deepseek-chat-v3-0324
  • Provider: Deepseek

Información

Proveedordeepseek
Tipollm

Funcionalidades compatibles

Entrada
Texto
Salida
Texto
Contexto163,840
Salida máxima65,536
Visión-
Function Calling✓ Compatible

Guía de acceso a la API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID del modelodeepseek/deepseek-chat-v3-0324

DeepSeek Chat V3 0324 API

deepseek/deepseek-chat-v3-0324

DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team. It succeeds the DeepSeek V3 model and performs really well...

Entrada

$0.2 /M

Salida

$0.77 /M

Contexto

164K

Salida máx.

66K

Uso de herramientas

Compatible

Prueba DeepSeek Chat V3 0324 en WaveSpeedAI

Accede a DeepSeek Chat V3 0324 mediante nuestra API unificada — compatible con OpenAI, sin arranques en frío, precios transparentes.

Abrir Playground

Preguntas frecuentes sobre DeepSeek Chat V3 0324

¿Cuánto cuesta DeepSeek Chat V3 0324 a través de la API?+

Precios en WaveSpeedAI: $0.20 por millón de tokens de entrada y $0.77 por millón de tokens de salida. El prompt caching y el procesamiento por lotes se facturan por separado y reducen el coste efectivo en cargas largas y repetitivas.

¿Cuál es la ventana de contexto de DeepSeek Chat V3 0324?+

DeepSeek Chat V3 0324 admite hasta 164K tokens de contexto y hasta 66K tokens de salida por solicitud.

¿Es DeepSeek Chat V3 0324 compatible con OpenAI?+

Sí. WaveSpeedAI expone DeepSeek Chat V3 0324 a través de un endpoint compatible con OpenAI en https://llm.wavespeed.ai/v1. Apunta el SDK oficial de OpenAI a esta base URL con tu clave API de WaveSpeedAI — sin más cambios de código.

¿Cómo empiezo con DeepSeek Chat V3 0324?+

Inicia sesión en WaveSpeedAI, crea una clave API en Access Keys y envía una solicitud a https://llm.wavespeed.ai/v1/chat/completions con el id de modelo mostrado arriba. Las cuentas nuevas reciben créditos gratuitos para evaluar DeepSeek Chat V3 0324 antes de pagar por token.

APIs LLM relacionadas