Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
mistral
mistralai/devstral-small

mistralai/devstral-small

131,072 context · $0.10/M input tokens · $0.30/M output tokens

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and...

Preise

Pay-per-Use

Keine Vorabkosten, zahlen Sie nur, was Sie nutzen

Eingabe$0.10 / M Tokens
Ausgabe$0.30 / M Tokens

Modell ausprobieren

mistralai/devstral-small
Online
mistral
Hallo! Ich bin ein hilfreicher KI-Assistent. Womit kann ich helfen?

API-Nutzung

Verwenden Sie die folgenden Codebeispiele zur Integration mit unserer API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="mistralai/devstral-small",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Modelleinführung

Mistralai devstral-small

Devstral Small 1

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and released under the Apache 2.0 license, it features a 128k token context window and supports both Mistral-style function calling and XML output formats.

Designed for agentic coding workflows, Devstral Small 1.1 is optimized for tasks such as codebase exploration, multi-file edits, and integration into autonomous development agents like OpenHands and Cline. It achieves 53.6% on SWE-Bench Verified, surpassing all other open models on this benchmark, while remaining lightweight enough to run on a single 4090 GPU or Apple silicon machine. The model uses a Tekken tokenizer with a 131k vocabulary and is deployable via vLLM, Transformers, Ollama, LM Studio, and other OpenAI-compatible runtimes.


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 131072 context window for long document handling
  • Competitive pricing at $0.1/$0.3 per million tokens

Key Features

  • Context Window: 131072 tokens
  • Max Output: N/A tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMistralai
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window131072 tokens
Max Outputtokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.1
Output$0.3

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: mistralai/devstral-small


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="mistralai/devstral-small",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "mistralai/devstral-small",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: mistralai/devstral-small
  • Provider: Mistralai

Info

Anbietermistral
Typllm

Unterstützte Funktionen

Eingabe
Text
Ausgabe
Text
Kontext131,072
Max. Ausgabe-
Vision-
Function Calling✓ Unterstützt

API-Zugriffsanleitung

Base URLhttps://llm.wavespeed.ai/v1
API-Endpunktchat/completions
Modell-IDmistralai/devstral-small

Devstral Small API

mistralai/devstral-small

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and...

Eingabe

$0.1 /M

Ausgabe

$0.3 /M

Kontext

131K

Tool-Nutzung

Unterstützt

Devstral Small auf WaveSpeedAI testen

Zugriff auf Devstral Small über unsere einheitliche API — OpenAI-kompatibel, keine Kaltstarts, transparente Preise.

Häufige Fragen zu Devstral Small

Wie viel kostet die Devstral Small-API?+

Preise auf WaveSpeedAI: $0.10 pro Million Input-Tokens und $0.30 pro Million Output-Tokens. Prompt-Caching und Batch-Verarbeitung werden separat berechnet und reduzieren die effektiven Kosten bei langen, sich wiederholenden Workloads.

Wie groß ist das Kontextfenster von Devstral Small?+

Devstral Small unterstützt bis zu 131K Kontext-Tokens und bis zu — Output-Tokens pro Anfrage.

Ist Devstral Small OpenAI-kompatibel?+

Ja. WaveSpeedAI stellt Devstral Small über einen OpenAI-kompatiblen Endpunkt unter https://llm.wavespeed.ai/v1 bereit. Richten Sie das offizielle OpenAI SDK mit Ihrem WaveSpeedAI-API-Schlüssel auf diese Base-URL — keine weiteren Codeänderungen erforderlich.

Wie starte ich mit Devstral Small?+

Bei WaveSpeedAI anmelden, in Access Keys einen API-Schlüssel erstellen und eine Anfrage an https://llm.wavespeed.ai/v1/chat/completions mit der oben angezeigten Model-ID senden. Neue Konten erhalten kostenlose Credits, um Devstral Small zu testen.

Verwandte LLM-APIs