Seedance 2.0 | Special Offer ✦ 10% OFF NOW
meta
meta-llama/llama-3.2-3b-instruct

meta-llama/llama-3.2-3b-instruct

80,000 context · $0.05/M input tokens · $0.34/M output tokens

Llama 3.2 3B is a 3-billion-parameter multilingual large language model, optimized for advanced natural language processing tasks like dialogue generation, reasoning, and summarization. Designed with the latest transformer architecture, it...

Цены

Оплата по факту использования

Никаких авансовых платежей — платите только за то, чем пользуетесь

Ввод$0.05 / M Tokens
Вывод$0.34 / M Tokens

Использование API

Используйте следующие примеры кода для интеграции с нашим API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="meta-llama/llama-3.2-3b-instruct",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Описание модели

Meta-Llama llama-3.2-3b-instruct

meta-llama llama-3.2-3b-instruct


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 131072 context window for long document handling
  • Competitive pricing at $0.0/$0.0 per million tokens

Key Features

  • Context Window: 131072 tokens
  • Max Output: 16384 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMeta-Llama
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window131072 tokens
Max Output16384 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.0
Output$0.0

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: meta-llama/llama-3.2-3b-instruct


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="meta-llama/llama-3.2-3b-instruct",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "meta-llama/llama-3.2-3b-instruct",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: meta-llama/llama-3.2-3b-instruct
  • Provider: Meta-Llama

Информация

Провайдерmeta
Типllm

Поддерживаемые возможности

Ввод
Текст
Вывод
Текст
Контекст80,000
Макс. вывод16,384
Vision-
Function Calling-

Руководство по доступу к API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID моделиmeta-llama/llama-3.2-3b-instruct

Llama 3.2 3b Instruct API

meta-llama/llama-3.2-3b-instruct

Llama 3.2 3B is a 3-billion-parameter multilingual large language model, optimized for advanced natural language processing tasks like dialogue generation, reasoning, and summarization. Designed with the latest transformer architecture, it...

Ввод

$0.051 /M

Вывод

$0.34 /M

Контекст

80K

Макс. вывод

16K

Попробуйте Llama 3.2 3b Instruct на WaveSpeedAI

Доступ к Llama 3.2 3b Instruct через наш единый API — совместимость с OpenAI, без холодных стартов, прозрачные цены.

Открыть Playground

Часто задаваемые вопросы о Llama 3.2 3b Instruct

Сколько стоит Llama 3.2 3b Instruct через API?+

Цены на WaveSpeedAI: $0.05 за миллион входных токенов и $0.34 за миллион выходных токенов. Prompt caching и batch processing тарифицируются отдельно и снижают эффективную стоимость длинных повторяющихся нагрузок.

Каково контекстное окно Llama 3.2 3b Instruct?+

Llama 3.2 3b Instruct поддерживает до 80K токенов контекста и до 16K токенов вывода на запрос.

Совместим ли Llama 3.2 3b Instruct с OpenAI?+

Да. WaveSpeedAI предоставляет Llama 3.2 3b Instruct через OpenAI-совместимый endpoint по адресу https://llm.wavespeed.ai/v1. Направьте официальный OpenAI SDK на этот base URL с ключом API WaveSpeedAI — других изменений в коде не требуется.

Как начать работу с Llama 3.2 3b Instruct?+

Войдите в WaveSpeedAI, создайте API-ключ в Access Keys и отправьте запрос на https://llm.wavespeed.ai/v1/chat/completions с указанным выше model id. Новые аккаунты получают бесплатные кредиты для оценки Llama 3.2 3b Instruct.

Связанные LLM API