Seedance 2.0 | Special Offer ✦ 10% OFF NOW
meta
meta-llama/llama-3.2-3b-instruct

meta-llama/llama-3.2-3b-instruct

80,000 context · $0.05/M input tokens · $0.34/M output tokens

Llama 3.2 3B is a 3-billion-parameter multilingual large language model, optimized for advanced natural language processing tasks like dialogue generation, reasoning, and summarization. Designed with the latest transformer architecture, it...

Cennik

Płać za użycie

Bez kosztów początkowych, płacisz tylko za to, czego używasz

Wejście$0.05 / M Tokens
Wyjście$0.34 / M Tokens

Użycie API

Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="meta-llama/llama-3.2-3b-instruct",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Wprowadzenie do modelu

Meta-Llama llama-3.2-3b-instruct

meta-llama llama-3.2-3b-instruct


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 131072 context window for long document handling
  • Competitive pricing at $0.0/$0.0 per million tokens

Key Features

  • Context Window: 131072 tokens
  • Max Output: 16384 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderMeta-Llama
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window131072 tokens
Max Output16384 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.0
Output$0.0

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: meta-llama/llama-3.2-3b-instruct


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="meta-llama/llama-3.2-3b-instruct",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "meta-llama/llama-3.2-3b-instruct",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: meta-llama/llama-3.2-3b-instruct
  • Provider: Meta-Llama

Info

Dostawcameta
Typllm

Obsługiwane funkcje

Wejście
Tekst
Wyjście
Tekst
Kontekst80,000
Maks. wyjście16,384
Vision-
Function Calling-

Przewodnik dostępu do API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID modelumeta-llama/llama-3.2-3b-instruct

Llama 3.2 3b Instruct API

meta-llama/llama-3.2-3b-instruct

Llama 3.2 3B is a 3-billion-parameter multilingual large language model, optimized for advanced natural language processing tasks like dialogue generation, reasoning, and summarization. Designed with the latest transformer architecture, it...

Wejście

$0.051 /M

Wyjście

$0.34 /M

Kontekst

80K

Maks. wyjście

16K

Wypróbuj Llama 3.2 3b Instruct w WaveSpeedAI

Uzyskaj dostęp do Llama 3.2 3b Instruct przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.

Otwórz Playground

Najczęstsze pytania o Llama 3.2 3b Instruct

Ile kosztuje API Llama 3.2 3b Instruct?+

Cennik na WaveSpeedAI: $0.05 za milion tokenów wejściowych i $0.34 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.

Jakie jest okno kontekstu Llama 3.2 3b Instruct?+

Llama 3.2 3b Instruct obsługuje do 80K tokenów kontekstu i do 16K tokenów wyjściowych na zapytanie.

Czy Llama 3.2 3b Instruct jest kompatybilny z OpenAI?+

Tak. WaveSpeedAI udostępnia Llama 3.2 3b Instruct przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.

Jak zacząć z Llama 3.2 3b Instruct?+

Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę Llama 3.2 3b Instruct.

Powiązane API LLM