deepseek/deepseek-chat-v3-0324
163,840 context · $0.20/M input tokens · $0.77/M output tokens
DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team. It succeeds the DeepSeek V3 model and performs really well...
Kullandıkça öde
Ön ödeme yok, yalnızca kullandığınız kadar ödeyin
API'mizle entegre etmek için aşağıdaki kod örneklerini kullanın:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="deepseek/deepseek-chat-v3-0324",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team
DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team.
| Specification | Value |
|---|---|
| Provider | Deepseek |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 163840 tokens |
| Max Output | 65536 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.2 |
| Output | $0.9 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: deepseek/deepseek-chat-v3-0324
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="deepseek/deepseek-chat-v3-0324",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "deepseek/deepseek-chat-v3-0324",
"messages": [{"role": "user", "content": "Hello!"}]
}'
deepseek/deepseek-chat-v3-0324
DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team. It succeeds the DeepSeek V3 model and performs really well...
Giriş
$0.2 /M
Çıkış
$0.77 /M
Bağlam
164K
Maks. Çıkış
66K
Araç Kullanımı
Destekleniyor
Birleşik API'miz aracılığıyla DeepSeek Chat V3 0324'e erişin — OpenAI uyumlu, soğuk başlatma yok, şeffaf fiyatlandırma.
Playground'u AçWaveSpeedAI fiyatlandırması: milyon giriş tokenı başına $0.20 ve milyon çıkış tokenı başına $0.77. Prompt caching ve toplu işleme ayrı faturalanır ve uzun, tekrar eden yüklerde etkin maliyeti düşürür.
DeepSeek Chat V3 0324 istek başına 164K bağlam tokenını ve 66K çıkış tokenını destekler.
Evet. WaveSpeedAI, DeepSeek Chat V3 0324 modelini https://llm.wavespeed.ai/v1 adresindeki OpenAI uyumlu endpoint üzerinden sunar. Resmi OpenAI SDK'sını WaveSpeedAI API anahtarınızla bu base URL'ye yöneltin — başka kod değişikliği gerekmez.
WaveSpeedAI'a giriş yapın, Access Keys'te bir API anahtarı oluşturun, ardından yukarıda gösterilen model id ile https://llm.wavespeed.ai/v1/chat/completions adresine bir istek gönderin. Yeni hesaplar DeepSeek Chat V3 0324'i değerlendirmek için ücretsiz krediler alır.