meta-llama/llama-3.2-3b-instruct
80,000 context · $0.05/M input tokens · $0.34/M output tokens
Llama 3.2 3B is a 3-billion-parameter multilingual large language model, optimized for advanced natural language processing tasks like dialogue generation, reasoning, and summarization. Designed with the latest transformer architecture, it...
จ่ายตามการใช้งาน
ไม่มีค่าใช้จ่ายล่วงหน้า จ่ายเฉพาะสิ่งที่คุณใช้
ใช้ตัวอย่างโค้ดต่อไปนี้เพื่อผสานรวมกับ API ของเรา:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="meta-llama/llama-3.2-3b-instruct",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)meta-llama llama-3.2-3b-instruct
| Specification | Value |
|---|---|
| Provider | Meta-Llama |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 131072 tokens |
| Max Output | 16384 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.0 |
| Output | $0.0 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: meta-llama/llama-3.2-3b-instruct
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="meta-llama/llama-3.2-3b-instruct",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "meta-llama/llama-3.2-3b-instruct",
"messages": [{"role": "user", "content": "Hello!"}]
}'
meta-llama/llama-3.2-3b-instruct
Llama 3.2 3B is a 3-billion-parameter multilingual large language model, optimized for advanced natural language processing tasks like dialogue generation, reasoning, and summarization. Designed with the latest transformer architecture, it...
อินพุต
$0.051 /M
เอาต์พุต
$0.34 /M
คอนเท็กซ์
80K
เอาต์พุตสูงสุด
16K
เข้าถึง Llama 3.2 3b Instruct ผ่าน API แบบรวมของเรา — เข้ากันได้กับ OpenAI ไม่มี cold start ราคาโปร่งใส
เปิด Playgroundราคาบน WaveSpeedAI: $0.05 ต่อล้านโทเคนอินพุต และ $0.34 ต่อล้านโทเคนเอาต์พุต Prompt caching และ batch processing คิดค่าบริการแยกและช่วยลดต้นทุนที่แท้จริงสำหรับภาระงานที่ยาวและทำซ้ำ
Llama 3.2 3b Instruct รองรับสูงสุด 80K โทเคนคอนเท็กซ์ และสูงสุด 16K โทเคนเอาต์พุตต่อคำขอ
ใช่ WaveSpeedAI ให้บริการ Llama 3.2 3b Instruct ผ่าน endpoint ที่เข้ากันได้กับ OpenAI ที่ https://llm.wavespeed.ai/v1 ชี้ OpenAI SDK ทางการมาที่ base URL นี้ด้วย API key ของ WaveSpeedAI — ไม่ต้องแก้ไขโค้ดอื่น
ลงชื่อเข้าใช้ WaveSpeedAI สร้าง API key ใน Access Keys จากนั้นส่งคำขอไปยัง https://llm.wavespeed.ai/v1/chat/completions พร้อม model id ที่แสดงด้านบน บัญชีใหม่จะได้รับเครดิตฟรีสำหรับทดลองใช้ Llama 3.2 3b Instruct