Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
mistral
mistralai/mistral-nemo

mistralai/mistral-nemo

131,072 context · $0.03/M input tokens · $0.06/M output tokens

A 12B parameter model with a 128k token context length built by Mistral in collaboration with NVIDIA. The model is multilingual, supporting English, French, German, Spanish, Italian, Portuguese, Chinese, Japanese,...

Цены

Оплата по факту использования

Никаких авансовых платежей — платите только за то, чем пользуетесь

Ввод$0.03 / M Tokens
Вывод$0.06 / M Tokens

Попробовать модель

mistralai/mistral-nemo
В сети
mistral
Привет! Я полезный ИИ-ассистент. Чем могу помочь?

Использование API

Используйте следующие примеры кода для интеграции с нашим API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="mistralai/mistral-nemo",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Описание модели

Mistralai mistral-nemo

mistralai mistral-nemo


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 131072 context window for long document handling
  • Competitive pricing at $0.0/$0.0 per million tokens

Key Features

  • Context Window: 131072 tokens
  • Max Output: 16384 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMistralai
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window131072 tokens
Max Output16384 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.0
Output$0.0

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: mistralai/mistral-nemo


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="mistralai/mistral-nemo",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "mistralai/mistral-nemo",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: mistralai/mistral-nemo
  • Provider: Mistralai

Информация

Провайдерmistral
Типllm

Поддерживаемые возможности

Ввод
Текст
Вывод
Текст
Контекст131,072
Макс. вывод16,384
Vision-
Function Calling✓ Поддерживается

Руководство по доступу к API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID моделиmistralai/mistral-nemo

Mistral Nemo API

mistralai/mistral-nemo

A 12B parameter model with a 128k token context length built by Mistral in collaboration with NVIDIA. The model is multilingual, supporting English, French, German, Spanish, Italian, Portuguese, Chinese, Japanese,...

Ввод

$0.025 /M

Вывод

$0.055 /M

Контекст

131K

Макс. вывод

16K

Использование инструментов

Поддерживается

Попробуйте Mistral Nemo на WaveSpeedAI

Доступ к Mistral Nemo через наш единый API — совместимость с OpenAI, без холодных стартов, прозрачные цены.

Часто задаваемые вопросы о Mistral Nemo

Сколько стоит Mistral Nemo через API?+

Цены на WaveSpeedAI: $0.03 за миллион входных токенов и $0.06 за миллион выходных токенов. Prompt caching и batch processing тарифицируются отдельно и снижают эффективную стоимость длинных повторяющихся нагрузок.

Каково контекстное окно Mistral Nemo?+

Mistral Nemo поддерживает до 131K токенов контекста и до 16K токенов вывода на запрос.

Совместим ли Mistral Nemo с OpenAI?+

Да. WaveSpeedAI предоставляет Mistral Nemo через OpenAI-совместимый endpoint по адресу https://llm.wavespeed.ai/v1. Направьте официальный OpenAI SDK на этот base URL с ключом API WaveSpeedAI — других изменений в коде не требуется.

Как начать работу с Mistral Nemo?+

Войдите в WaveSpeedAI, создайте API-ключ в Access Keys и отправьте запрос на https://llm.wavespeed.ai/v1/chat/completions с указанным выше model id. Новые аккаунты получают бесплатные кредиты для оценки Mistral Nemo.

Связанные LLM API