cohere/command-r7b-12-2024
128,000 context · $0.04/M input tokens · $0.15/M output tokens
Command R7B (12-2024) is a small, fast update of the Command R+ model, delivered in December 2024. It excels at RAG, tool use, agents, and similar tasks requiring complex reasoning...
Paiement à l'usage
Aucun coût initial, payez uniquement ce que vous utilisez
Utilisez les exemples de code suivants pour intégrer notre API :
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="cohere/command-r7b-12-2024",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)cohere command-r7b-12-2024
| Specification | Value |
|---|---|
| Provider | Cohere |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 128000 tokens |
| Max Output | 4000 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.0 |
| Output | $0.2 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: cohere/command-r7b-12-2024
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="cohere/command-r7b-12-2024",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "cohere/command-r7b-12-2024",
"messages": [{"role": "user", "content": "Hello!"}]
}'
cohere/command-r7b-12-2024
Command R7B (12-2024) is a small, fast update of the Command R+ model, delivered in December 2024. It excels at RAG, tool use, agents, and similar tasks requiring complex reasoning...
Entrée
$0.0375 /M
Sortie
$0.15 /M
Contexte
128K
Sortie max.
4K
Accédez à Command R7b 12 2024 via notre API unifiée — compatible OpenAI, sans démarrages à froid, prix transparents.
Tarification sur WaveSpeedAI : $0.04 par million de tokens d'entrée et $0.15 par million de tokens de sortie. Le prompt caching et le traitement par batch sont facturés séparément et réduisent le coût effectif sur les charges longues et répétitives.
Command R7b 12 2024 prend en charge jusqu'à 128K tokens de contexte et jusqu'à 4K tokens de sortie par requête.
Oui. WaveSpeedAI expose Command R7b 12 2024 via un endpoint compatible OpenAI à https://llm.wavespeed.ai/v1. Pointez le SDK officiel d'OpenAI vers cette base URL avec votre clé API WaveSpeedAI — aucune autre modification de code requise.
Connectez-vous à WaveSpeedAI, créez une clé API dans Access Keys, puis envoyez une requête à https://llm.wavespeed.ai/v1/chat/completions avec l'id du modèle affiché ci-dessus. Les nouveaux comptes reçoivent des crédits gratuits pour évaluer Command R7b 12 2024.