deepseek/deepseek-chat-v3-0324
163,840 context · $0.20/M input tokens · $0.77/M output tokens
DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team. It succeeds the DeepSeek V3 model and performs really well...
従量課金
初期費用なし、使った分だけお支払い
以下のコード例を使用して API と連携してください:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="deepseek/deepseek-chat-v3-0324",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team
DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team.
| Specification | Value |
|---|---|
| Provider | Deepseek |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 163840 tokens |
| Max Output | 65536 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.2 |
| Output | $0.9 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: deepseek/deepseek-chat-v3-0324
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="deepseek/deepseek-chat-v3-0324",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "deepseek/deepseek-chat-v3-0324",
"messages": [{"role": "user", "content": "Hello!"}]
}'
deepseek/deepseek-chat-v3-0324
DeepSeek V3, a 685B-parameter, mixture-of-experts model, is the latest iteration of the flagship chat model family from the DeepSeek team. It succeeds the DeepSeek V3 model and performs really well...
入力
$0.2 /M
出力
$0.77 /M
コンテキスト
164K
最大出力
66K
ツール利用
対応
統合APIを通じてDeepSeek Chat V3 0324にアクセス — OpenAI互換、コールドスタートなし、透明な料金。
Playgroundを開くWaveSpeedAI の料金: 入力 100 万トークンあたり $0.20、出力 100 万トークンあたり $0.77。プロンプトキャッシュとバッチ処理は別途料金で、長く反復的なワークロードでは実効コストを下げられます。
DeepSeek Chat V3 0324 はリクエストあたり最大 164K のコンテキストトークンと最大 66K の出力トークンをサポートします。
はい。WaveSpeedAI は OpenAI 互換エンドポイント https://llm.wavespeed.ai/v1 で DeepSeek Chat V3 0324 を提供します。公式 OpenAI SDK のベース URL をこちらに変更し WaveSpeedAI の API キーを設定するだけで利用可能です。
WaveSpeedAI にサインインし、Access Keys で API キーを作成して、上に表示されているモデル ID を指定して https://llm.wavespeed.ai/v1/chat/completions にリクエストを送信してください。新規アカウントには DeepSeek Chat V3 0324 を試用できる無料クレジットが付与されます。