z-ai/glm-5.1
202,752 context · $1.40/M input tokens · $4.40/M output tokens
GLM-5.1 delivers a major leap in coding capability, with particularly significant gains in handling long-horizon tasks. Unlike previous models built around minute-level interactions, GLM-5.1 can work independently and continuously on a single task for more than 8 hours, autonomously planning, executing, and improving itself throughout the process, ultimately delivering complete, engineering-grade results.
Paiement à l'usage
Aucun coût initial, payez uniquement ce que vous utilisez
Utilisez les exemples de code suivants pour intégrer notre API :
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="z-ai/glm-5.1",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)z-ai/glm-5.1
GLM-5.1 delivers a major leap in coding capability, with particularly significant gains in handling long-horizon tasks. Unlike previous models built around minute-level interactions, GLM-5.1 can work independently and continuously on a single task for more than 8 hours, autonomously planning, executing, and improving itself throughout the process, ultimately delivering complete, engineering-grade results.
Entrée
$1.4 /M
Sortie
$4.4 /M
Contexte
203K
Utilisation d'outils
Pris en charge
Accédez à GLM 5.1 via notre API unifiée — compatible OpenAI, sans démarrages à froid, prix transparents.
Tarification sur WaveSpeedAI : $1.40 par million de tokens d'entrée et $4.40 par million de tokens de sortie. Le prompt caching et le traitement par batch sont facturés séparément et réduisent le coût effectif sur les charges longues et répétitives.
GLM 5.1 prend en charge jusqu'à 203K tokens de contexte et jusqu'à — tokens de sortie par requête.
Oui. WaveSpeedAI expose GLM 5.1 via un endpoint compatible OpenAI à https://llm.wavespeed.ai/v1. Pointez le SDK officiel d'OpenAI vers cette base URL avec votre clé API WaveSpeedAI — aucune autre modification de code requise.
Connectez-vous à WaveSpeedAI, créez une clé API dans Access Keys, puis envoyez une requête à https://llm.wavespeed.ai/v1/chat/completions avec l'id du modèle affiché ci-dessus. Les nouveaux comptes reçoivent des crédits gratuits pour évaluer GLM 5.1.