Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
A
arcee-ai/virtuoso-large

arcee-ai/virtuoso-large

131,072 context · $0.75/M input tokens · $1.20/M output tokens

Virtuoso‑Large is Arcee's top‑tier general‑purpose LLM at 72 B parameters, tuned to tackle cross‑domain reasoning, creative writing and enterprise QA. Unlike many 70 B peers, it retains the 128 k...

Preços

Pagamento por uso

Sem custo inicial, pague apenas pelo que usar

Entrada$0.75 / M Tokens
Saída$1.20 / M Tokens

Uso da API

Use os exemplos de código abaixo para integrar com nossa API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="arcee-ai/virtuoso-large",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Info

Provedorarcee-ai
Tipollm

Funcionalidades suportadas

Entrada
Texto
Saída
Texto
Contexto131,072
Saída máx.64,000
Vision-
Function Calling✓ Suportado

Guia de acesso à API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID do modeloarcee-ai/virtuoso-large

Virtuoso Large API

arcee-ai/virtuoso-large

Virtuoso‑Large is Arcee's top‑tier general‑purpose LLM at 72 B parameters, tuned to tackle cross‑domain reasoning, creative writing and enterprise QA. Unlike many 70 B peers, it retains the 128 k...

Entrada

$0.75 /M

Saída

$1.2 /M

Contexto

131K

Saída máx.

64K

Uso de ferramentas

Suportado

Experimente Virtuoso Large no WaveSpeedAI

Acesse Virtuoso Large através da nossa API unificada — compatível com OpenAI, sem inicializações a frio, preços transparentes.

Perguntas frequentes sobre Virtuoso Large

Quanto custa Virtuoso Large via API?+

Preços no WaveSpeedAI: $0.75 por milhão de tokens de entrada e $1.20 por milhão de tokens de saída. Prompt caching e batch processing são cobrados separadamente e reduzem o custo efetivo em cargas longas e repetitivas.

Qual é a janela de contexto do Virtuoso Large?+

Virtuoso Large suporta até 131K tokens de contexto e até 64K tokens de saída por requisição.

Virtuoso Large é compatível com OpenAI?+

Sim. O WaveSpeedAI expõe o Virtuoso Large através de um endpoint compatível com OpenAI em https://llm.wavespeed.ai/v1. Aponte o SDK oficial da OpenAI para esta base URL com sua chave API do WaveSpeedAI — sem outras alterações no código.

Como começo a usar o Virtuoso Large?+

Entre no WaveSpeedAI, crie uma chave API em Access Keys, então envie uma requisição para https://llm.wavespeed.ai/v1/chat/completions com o model id mostrado acima. Contas novas recebem créditos grátis para avaliar o Virtuoso Large.

APIs LLM relacionadas