Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
chatglm
z-ai/glm-5.1

z-ai/glm-5.1

202,752 context · $1.40/M input tokens · $4.40/M output tokens

GLM-5.1 delivers a major leap in coding capability, with particularly significant gains in handling long-horizon tasks. Unlike previous models built around minute-level interactions, GLM-5.1 can work independently and continuously on a single task for more than 8 hours, autonomously planning, executing, and improving itself throughout the process, ultimately delivering complete, engineering-grade results.

Precios

Pago por uso

Sin costos iniciales, paga solo por lo que uses

Entrada$1.40 / M Tokens
Salida$4.40 / M Tokens

Probar el modelo

z-ai/glm-5.1
En línea
chatglm
¡Hola! Soy un asistente de IA útil. ¿En qué puedo ayudarte?

Uso de API

Usa los siguientes ejemplos de código para integrar con nuestra API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="z-ai/glm-5.1",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Información

Proveedorchatglm
Tipollm

Funcionalidades compatibles

Entrada
Texto
Salida
Texto
Contexto202,752
Salida máxima-
Visión-
Function Calling✓ Compatible

Guía de acceso a la API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID del modeloz-ai/glm-5.1

GLM 5.1 API

z-ai/glm-5.1

GLM-5.1 delivers a major leap in coding capability, with particularly significant gains in handling long-horizon tasks. Unlike previous models built around minute-level interactions, GLM-5.1 can work independently and continuously on a single task for more than 8 hours, autonomously planning, executing, and improving itself throughout the process, ultimately delivering complete, engineering-grade results.

Entrada

$1.4 /M

Salida

$4.4 /M

Contexto

203K

Uso de herramientas

Compatible

Prueba GLM 5.1 en WaveSpeedAI

Accede a GLM 5.1 mediante nuestra API unificada — compatible con OpenAI, sin arranques en frío, precios transparentes.

Preguntas frecuentes sobre GLM 5.1

¿Cuánto cuesta GLM 5.1 a través de la API?+

Precios en WaveSpeedAI: $1.40 por millón de tokens de entrada y $4.40 por millón de tokens de salida. El prompt caching y el procesamiento por lotes se facturan por separado y reducen el coste efectivo en cargas largas y repetitivas.

¿Cuál es la ventana de contexto de GLM 5.1?+

GLM 5.1 admite hasta 203K tokens de contexto y hasta — tokens de salida por solicitud.

¿Es GLM 5.1 compatible con OpenAI?+

Sí. WaveSpeedAI expone GLM 5.1 a través de un endpoint compatible con OpenAI en https://llm.wavespeed.ai/v1. Apunta el SDK oficial de OpenAI a esta base URL con tu clave API de WaveSpeedAI — sin más cambios de código.

¿Cómo empiezo con GLM 5.1?+

Inicia sesión en WaveSpeedAI, crea una clave API en Access Keys y envía una solicitud a https://llm.wavespeed.ai/v1/chat/completions con el id de modelo mostrado arriba. Las cuentas nuevas reciben créditos gratuitos para evaluar GLM 5.1 antes de pagar por token.

APIs LLM relacionadas