cohere/command-r-08-2024
128,000 context · $0.15/M input tokens · $0.60/M output tokens
command-r-08-2024 is an update of the Command R with improved performance for multilingual retrieval-augmented generation (RAG) and tool use. More broadly, it is better at math, code and reasoning and...
사용량 기반 과금
선결제 없이 사용한 만큼만 지불
다음 코드 예시를 사용해 API와 연동하세요:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="cohere/command-r-08-2024",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)cohere command-r-08-2024
| Specification | Value |
|---|---|
| Provider | Cohere |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 128000 tokens |
| Max Output | 4000 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.2 |
| Output | $0.7 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: cohere/command-r-08-2024
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="cohere/command-r-08-2024",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "cohere/command-r-08-2024",
"messages": [{"role": "user", "content": "Hello!"}]
}'
cohere/command-r-08-2024
command-r-08-2024 is an update of the Command R with improved performance for multilingual retrieval-augmented generation (RAG) and tool use. More broadly, it is better at math, code and reasoning and...
입력
$0.15 /M
출력
$0.6 /M
컨텍스트
128K
최대 출력
4K
도구 사용
지원
통합 API를 통해 Command R 08 2024 액세스 — OpenAI 호환, 콜드 스타트 없음, 투명한 가격.
WaveSpeedAI 가격: 입력 토큰 100만 개당 $0.15, 출력 토큰 100만 개당 $0.60. 프롬프트 캐싱과 배치 처리는 별도로 청구되며 긴 반복 작업에서 실질 비용을 줄여 줍니다.
Command R 08 2024은 요청당 최대 128K 컨텍스트 토큰과 최대 4K 출력 토큰을 지원합니다.
네. WaveSpeedAI는 OpenAI 호환 엔드포인트 https://llm.wavespeed.ai/v1을 통해 Command R 08 2024을 제공합니다. 공식 OpenAI SDK의 base URL을 이 주소로 변경하고 WaveSpeedAI API 키를 사용하면 코드 변경 없이 사용할 수 있습니다.
WaveSpeedAI에 로그인하고 Access Keys에서 API 키를 만든 다음, 위에 표시된 모델 ID로 https://llm.wavespeed.ai/v1/chat/completions에 요청을 보내세요. 신규 계정은 Command R 08 2024을 평가할 수 있는 무료 크레딧을 받습니다.