Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
chatglm
z-ai/glm-5.1

z-ai/glm-5.1

202,752 context · $1.40/M input tokens · $4.40/M output tokens

GLM-5.1 delivers a major leap in coding capability, with particularly significant gains in handling long-horizon tasks. Unlike previous models built around minute-level interactions, GLM-5.1 can work independently and continuously on a single task for more than 8 hours, autonomously planning, executing, and improving itself throughout the process, ultimately delivering complete, engineering-grade results.

Harga

Bayar sesuai pemakaian

Tanpa biaya di muka, bayar hanya sesuai penggunaan

Input$1.40 / M Tokens
Output$4.40 / M Tokens

Coba model

z-ai/glm-5.1
Online
chatglm
Hai! Saya asisten AI yang siap membantu. Ada yang bisa saya bantu?

Penggunaan API

Gunakan contoh kode berikut untuk integrasi dengan API kami:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="z-ai/glm-5.1",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Info

Penyediachatglm
Tipellm

Fitur yang Didukung

Input
Teks
Output
Teks
Konteks202,752
Output Maks-
Vision-
Function Calling✓ Didukung

Panduan Akses API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
Model IDz-ai/glm-5.1

GLM 5.1 API

z-ai/glm-5.1

GLM-5.1 delivers a major leap in coding capability, with particularly significant gains in handling long-horizon tasks. Unlike previous models built around minute-level interactions, GLM-5.1 can work independently and continuously on a single task for more than 8 hours, autonomously planning, executing, and improving itself throughout the process, ultimately delivering complete, engineering-grade results.

Input

$1.4 /M

Output

$4.4 /M

Konteks

203K

Penggunaan Tool

Didukung

Coba GLM 5.1 di WaveSpeedAI

Akses GLM 5.1 melalui API terpadu kami — kompatibel dengan OpenAI, tanpa cold start, harga transparan.

Pertanyaan Umum tentang GLM 5.1

Berapa biaya GLM 5.1 melalui API?+

Harga di WaveSpeedAI: $1.40 per juta token input dan $4.40 per juta token output. Prompt caching dan batch processing ditagih terpisah dan mengurangi biaya efektif pada beban kerja yang panjang dan berulang.

Berapa context window GLM 5.1?+

GLM 5.1 mendukung hingga 203K token konteks dengan hingga — token output per permintaan.

Apakah GLM 5.1 kompatibel dengan OpenAI?+

Ya. WaveSpeedAI menyediakan GLM 5.1 melalui endpoint yang kompatibel dengan OpenAI di https://llm.wavespeed.ai/v1. Arahkan OpenAI SDK resmi ke base URL ini dengan API key WaveSpeedAI Anda — tanpa perubahan kode lainnya.

Bagaimana memulai dengan GLM 5.1?+

Masuk ke WaveSpeedAI, buat API key di Access Keys, lalu kirim permintaan ke https://llm.wavespeed.ai/v1/chat/completions dengan model id seperti ditampilkan di atas. Akun baru menerima kredit gratis untuk menguji GLM 5.1.

API LLM terkait