z-ai/glm-4.6
204,800 context · $0.39/M input tokens · $1.90/M output tokens
Compared with GLM-4.5, this generation brings several key improvements: Longer context window: The context window has been expanded from 128K to 200K tokens, enabling the model to handle more complex...
Płać za użycie
Bez kosztów początkowych, płacisz tylko za to, czego używasz
Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="z-ai/glm-4.6",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)z-ai glm-4.6
| Specification | Value |
|---|---|
| Provider | Z-Ai |
| Model Type | Large Language Model (LLM) |
| Architecture | N/A |
| Context Window | 202752 tokens |
| Max Output | 65536 tokens |
| Input | Text |
| Output | Text |
| Vision | Supported |
| Function Calling | Supported |
| Token Type | Cost per Million Tokens |
|---|---|
| Input | $0.4 |
| Output | $1.6 |
Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: z-ai/glm-4.6
from openai import OpenAI
client = OpenAI(
api_key="YOUR_API_KEY",
base_url="https://llm.wavespeed.ai/v1"
)
response = client.chat.completions.create(
model="z-ai/glm-4.6",
messages=[
{"role": "user", "content": "Hello!"}
]
)
print(response.choices[0].message.content)
curl https://llm.wavespeed.ai/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{
"model": "z-ai/glm-4.6",
"messages": [{"role": "user", "content": "Hello!"}]
}'
z-ai/glm-4.6
Compared with GLM-4.5, this generation brings several key improvements: Longer context window: The context window has been expanded from 128K to 200K tokens, enabling the model to handle more complex...
Wejście
$0.39 /M
Wyjście
$1.9 /M
Kontekst
205K
Maks. wyjście
205K
Użycie narzędzi
Obsługiwane
Uzyskaj dostęp do GLM 4.6 przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.
Cennik na WaveSpeedAI: $0.39 za milion tokenów wejściowych i $1.90 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.
GLM 4.6 obsługuje do 205K tokenów kontekstu i do 205K tokenów wyjściowych na zapytanie.
Tak. WaveSpeedAI udostępnia GLM 4.6 przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.
Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę GLM 4.6.