meta-llama/llama-3.2-11b-vision-instruct
131,072 context · $0.24/M input tokens · $0.24/M output tokens
Llama 3.2 11B Vision is a multimodal model with 11 billion parameters, designed to handle tasks combining visual and textual data. It excels in tasks such as image captioning and...
Оплата по факту использования
Никаких авансовых платежей — платите только за то, чем пользуетесь
Используйте следующие примеры кода для интеграции с нашим API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="meta-llama/llama-3.2-11b-vision-instruct",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)meta-llama llama-3.2-11b-vision-instruct
| Specification | Value |
|---|---|
| Provider | Meta-Llama |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 131072 tokens |
| Max Output | 16384 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.0 |
| Output | $0.0 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: meta-llama/llama-3.2-11b-vision-instruct
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="meta-llama/llama-3.2-11b-vision-instruct",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "meta-llama/llama-3.2-11b-vision-instruct",
"messages": [{"role": "user", "content": "Hello!"}]
}'
meta-llama/llama-3.2-11b-vision-instruct
Llama 3.2 11B Vision is a multimodal model with 11 billion parameters, designed to handle tasks combining visual and textual data. It excels in tasks such as image captioning and...
Ввод
$0.245 /M
Вывод
$0.245 /M
Контекст
131K
Макс. вывод
16K
Vision
Поддерживается
Доступ к Llama 3.2 11b Vision Instruct через наш единый API — совместимость с OpenAI, без холодных стартов, прозрачные цены.
Открыть PlaygroundЦены на WaveSpeedAI: $0.24 за миллион входных токенов и $0.24 за миллион выходных токенов. Prompt caching и batch processing тарифицируются отдельно и снижают эффективную стоимость длинных повторяющихся нагрузок.
Llama 3.2 11b Vision Instruct поддерживает до 131K токенов контекста и до 16K токенов вывода на запрос.
Да. WaveSpeedAI предоставляет Llama 3.2 11b Vision Instruct через OpenAI-совместимый endpoint по адресу https://llm.wavespeed.ai/v1. Направьте официальный OpenAI SDK на этот base URL с ключом API WaveSpeedAI — других изменений в коде не требуется.
Войдите в WaveSpeedAI, создайте API-ключ в Access Keys и отправьте запрос на https://llm.wavespeed.ai/v1/chat/completions с указанным выше model id. Новые аккаунты получают бесплатные кредиты для оценки Llama 3.2 11b Vision Instruct.