Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
mistral
mistralai/devstral-small

mistralai/devstral-small

131,072 context · $0.10/M input tokens · $0.30/M output tokens

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and...

Cennik

Płać za użycie

Bez kosztów początkowych, płacisz tylko za to, czego używasz

Wejście$0.10 / M Tokens
Wyjście$0.30 / M Tokens

Wypróbuj model

mistralai/devstral-small
Online
mistral
Cześć! Jestem pomocnym asystentem AI. W czym mogę pomóc?

Użycie API

Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="mistralai/devstral-small",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Wprowadzenie do modelu

Mistralai devstral-small

Devstral Small 1

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and released under the Apache 2.0 license, it features a 128k token context window and supports both Mistral-style function calling and XML output formats.

Designed for agentic coding workflows, Devstral Small 1.1 is optimized for tasks such as codebase exploration, multi-file edits, and integration into autonomous development agents like OpenHands and Cline. It achieves 53.6% on SWE-Bench Verified, surpassing all other open models on this benchmark, while remaining lightweight enough to run on a single 4090 GPU or Apple silicon machine. The model uses a Tekken tokenizer with a 131k vocabulary and is deployable via vLLM, Transformers, Ollama, LM Studio, and other OpenAI-compatible runtimes.


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 131072 context window for long document handling
  • Competitive pricing at $0.1/$0.3 per million tokens

Key Features

  • Context Window: 131072 tokens
  • Max Output: N/A tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMistralai
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window131072 tokens
Max Outputtokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.1
Output$0.3

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: mistralai/devstral-small


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="mistralai/devstral-small",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "mistralai/devstral-small",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: mistralai/devstral-small
  • Provider: Mistralai

Info

Dostawcamistral
Typllm

Obsługiwane funkcje

Wejście
Tekst
Wyjście
Tekst
Kontekst131,072
Maks. wyjście-
Vision-
Function Calling✓ Obsługiwane

Przewodnik dostępu do API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID modelumistralai/devstral-small

Devstral Small API

mistralai/devstral-small

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and...

Wejście

$0.1 /M

Wyjście

$0.3 /M

Kontekst

131K

Użycie narzędzi

Obsługiwane

Wypróbuj Devstral Small w WaveSpeedAI

Uzyskaj dostęp do Devstral Small przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.

Najczęstsze pytania o Devstral Small

Ile kosztuje API Devstral Small?+

Cennik na WaveSpeedAI: $0.10 za milion tokenów wejściowych i $0.30 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.

Jakie jest okno kontekstu Devstral Small?+

Devstral Small obsługuje do 131K tokenów kontekstu i do — tokenów wyjściowych na zapytanie.

Czy Devstral Small jest kompatybilny z OpenAI?+

Tak. WaveSpeedAI udostępnia Devstral Small przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.

Jak zacząć z Devstral Small?+

Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Devstral Small.

Powiązane API LLM