mistralai/mistral-nemo
131,072 context · $0.03/M input tokens · $0.06/M output tokens
A 12B parameter model with a 128k token context length built by Mistral in collaboration with NVIDIA. The model is multilingual, supporting English, French, German, Spanish, Italian, Portuguese, Chinese, Japanese,...
Оплата по факту использования
Никаких авансовых платежей — платите только за то, чем пользуетесь
Используйте следующие примеры кода для интеграции с нашим API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="mistralai/mistral-nemo",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)mistralai mistral-nemo
| Specification | Value |
|---|---|
| Provider | Mistralai |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 131072 tokens |
| Max Output | 16384 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.0 |
| Output | $0.0 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: mistralai/mistral-nemo
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="mistralai/mistral-nemo",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "mistralai/mistral-nemo",
"messages": [{"role": "user", "content": "Hello!"}]
}'
mistralai/mistral-nemo
A 12B parameter model with a 128k token context length built by Mistral in collaboration with NVIDIA. The model is multilingual, supporting English, French, German, Spanish, Italian, Portuguese, Chinese, Japanese,...
Ввод
$0.025 /M
Вывод
$0.055 /M
Контекст
131K
Макс. вывод
16K
Использование инструментов
Поддерживается
Доступ к Mistral Nemo через наш единый API — совместимость с OpenAI, без холодных стартов, прозрачные цены.
Цены на WaveSpeedAI: $0.03 за миллион входных токенов и $0.06 за миллион выходных токенов. Prompt caching и batch processing тарифицируются отдельно и снижают эффективную стоимость длинных повторяющихся нагрузок.
Mistral Nemo поддерживает до 131K токенов контекста и до 16K токенов вывода на запрос.
Да. WaveSpeedAI предоставляет Mistral Nemo через OpenAI-совместимый endpoint по адресу https://llm.wavespeed.ai/v1. Направьте официальный OpenAI SDK на этот base URL с ключом API WaveSpeedAI — других изменений в коде не требуется.
Войдите в WaveSpeedAI, создайте API-ключ в Access Keys и отправьте запрос на https://llm.wavespeed.ai/v1/chat/completions с указанным выше model id. Новые аккаунты получают бесплатные кредиты для оценки Mistral Nemo.