Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
mistral
mistralai/devstral-small

mistralai/devstral-small

131,072 context · $0.10/M input tokens · $0.30/M output tokens

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and...

Fiyatlandırma

Kullandıkça öde

Ön ödeme yok, yalnızca kullandığınız kadar ödeyin

Giriş$0.10 / M Tokens
Çıkış$0.30 / M Tokens

Modeli dene

mistralai/devstral-small
Çevrimiçi
mistral
Merhaba! Yardımcı bir yapay zeka asistanıyım. Size nasıl yardımcı olabilirim?

API Kullanımı

API'mizle entegre etmek için aşağıdaki kod örneklerini kullanın:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="mistralai/devstral-small",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Model Tanıtımı

Mistralai devstral-small

Devstral Small 1

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and released under the Apache 2.0 license, it features a 128k token context window and supports both Mistral-style function calling and XML output formats.

Designed for agentic coding workflows, Devstral Small 1.1 is optimized for tasks such as codebase exploration, multi-file edits, and integration into autonomous development agents like OpenHands and Cline. It achieves 53.6% on SWE-Bench Verified, surpassing all other open models on this benchmark, while remaining lightweight enough to run on a single 4090 GPU or Apple silicon machine. The model uses a Tekken tokenizer with a 131k vocabulary and is deployable via vLLM, Transformers, Ollama, LM Studio, and other OpenAI-compatible runtimes.


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 131072 context window for long document handling
  • Competitive pricing at $0.1/$0.3 per million tokens

Key Features

  • Context Window: 131072 tokens
  • Max Output: N/A tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMistralai
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window131072 tokens
Max Outputtokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.1
Output$0.3

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: mistralai/devstral-small


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="mistralai/devstral-small",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "mistralai/devstral-small",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: mistralai/devstral-small
  • Provider: Mistralai

Bilgi

Sağlayıcımistral
Türllm

Desteklenen İşlevsellik

Giriş
Metin
Çıkış
Metin
Bağlam131,072
Maks. Çıkış-
Vision-
Function Calling✓ Destekleniyor

API Erişim Kılavuzu

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
Model IDmistralai/devstral-small

Devstral Small API

mistralai/devstral-small

Devstral Small 1.1 is a 24B parameter open-weight language model for software engineering agents, developed by Mistral AI in collaboration with All Hands AI. Finetuned from Mistral Small 3.1 and...

Giriş

$0.1 /M

Çıkış

$0.3 /M

Bağlam

131K

Araç Kullanımı

Destekleniyor

Devstral Small'i WaveSpeedAI'da deneyin

Birleşik API'miz aracılığıyla Devstral Small'e erişin — OpenAI uyumlu, soğuk başlatma yok, şeffaf fiyatlandırma.

Devstral Small hakkında sık sorulan sorular

Devstral Small API ücreti ne kadar?+

WaveSpeedAI fiyatlandırması: milyon giriş tokenı başına $0.10 ve milyon çıkış tokenı başına $0.30. Prompt caching ve toplu işleme ayrı faturalanır ve uzun, tekrar eden yüklerde etkin maliyeti düşürür.

Devstral Small'in bağlam penceresi nedir?+

Devstral Small istek başına 131K bağlam tokenını ve — çıkış tokenını destekler.

Devstral Small OpenAI uyumlu mu?+

Evet. WaveSpeedAI, Devstral Small modelini https://llm.wavespeed.ai/v1 adresindeki OpenAI uyumlu endpoint üzerinden sunar. Resmi OpenAI SDK'sını WaveSpeedAI API anahtarınızla bu base URL'ye yöneltin — başka kod değişikliği gerekmez.

Devstral Small'e nasıl başlarım?+

WaveSpeedAI'a giriş yapın, Access Keys'te bir API anahtarı oluşturun, ardından yukarıda gösterilen model id ile https://llm.wavespeed.ai/v1/chat/completions adresine bir istek gönderin. Yeni hesaplar Devstral Small'i değerlendirmek için ücretsiz krediler alır.

İlgili LLM API'leri