Seedance 2.0 | Special Offer ✦ 10% OFF NOW | Ends May 13 (UTC+0)
chatglm
z-ai/glm-4.6

z-ai/glm-4.6

204,800 context · $0.39/M input tokens · $1.90/M output tokens

Compared with GLM-4.5, this generation brings several key improvements: Longer context window: The context window has been expanded from 128K to 200K tokens, enabling the model to handle more complex...

Cennik

Płać za użycie

Bez kosztów początkowych, płacisz tylko za to, czego używasz

Wejście$0.39 / M Tokens
Wyjście$1.90 / M Tokens

Wypróbuj model

z-ai/glm-4.6
Online
chatglm
Cześć! Jestem pomocnym asystentem AI. W czym mogę pomóc?

Użycie API

Użyj poniższych przykładów kodu, aby zintegrować się z naszym API:

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="z-ai/glm-4.6",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

Wprowadzenie do modelu

Z-Ai glm-4.6

z-ai glm-4.6


Why It Looks Great

  • Large Language Model architecture for efficient processing
  • 202752 context window for long document handling
  • Competitive pricing at $0.4/$1.6 per million tokens

Key Features

  • Context Window: 202752 tokens
  • Max Output: 65536 tokens
  • Vision: Supported
  • Function Calling: Supported

Specifications

SpecificationValue
ProviderZ-Ai
Model TypeLarge Language Model (LLM)
ArchitectureN/A
Context Window202752 tokens
Max Output65536 tokens
InputText
OutputText
VisionSupported
Function CallingSupported

Pricing

Token TypeCost per Million Tokens
Input$0.4
Output$1.6

How to Use

  1. Write your prompt — describe the task, provide context, and specify desired output format.
  2. Submit — the model processes your request and returns the response.

API Integration

Base URL: https://llm.wavespeed.ai/v1 API Endpoint: chat/completions Model ID: z-ai/glm-4.6


API Usage

Python SDK

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_API_KEY",
    base_url="https://llm.wavespeed.ai/v1"
)

response = client.chat.completions.create(
    model="z-ai/glm-4.6",
    messages=[
        {"role": "user", "content": "Hello!"}
    ]
)

print(response.choices[0].message.content)

cURL

curl https://llm.wavespeed.ai/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer YOUR_API_KEY" \
  -d '{
    "model": "z-ai/glm-4.6",
    "messages": [{"role": "user", "content": "Hello!"}]
  }'

Notes

  • Model: z-ai/glm-4.6
  • Provider: Z-Ai

Info

Dostawcachatglm
Typllm

Obsługiwane funkcje

Wejście
Tekst
Wyjście
Tekst
Kontekst204,800
Maks. wyjście204,800
Vision-
Function Calling✓ Obsługiwane

Przewodnik dostępu do API

Base URLhttps://llm.wavespeed.ai/v1
API Endpointchat/completions
ID modeluz-ai/glm-4.6

GLM 4.6 API

z-ai/glm-4.6

Compared with GLM-4.5, this generation brings several key improvements: Longer context window: The context window has been expanded from 128K to 200K tokens, enabling the model to handle more complex...

Wejście

$0.39 /M

Wyjście

$1.9 /M

Kontekst

205K

Maks. wyjście

205K

Użycie narzędzi

Obsługiwane

Wypróbuj GLM 4.6 w WaveSpeedAI

Uzyskaj dostęp do GLM 4.6 przez nasze ujednolicone API — kompatybilne z OpenAI, bez zimnych startów, przejrzyste ceny.

Najczęstsze pytania o GLM 4.6

Ile kosztuje API GLM 4.6?+

Cennik na WaveSpeedAI: $0.39 za milion tokenów wejściowych i $1.90 za milion tokenów wyjściowych. Prompt caching i przetwarzanie wsadowe są rozliczane oddzielnie i obniżają efektywny koszt długich, powtarzalnych obciążeń.

Jakie jest okno kontekstu GLM 4.6?+

GLM 4.6 obsługuje do 205K tokenów kontekstu i do 205K tokenów wyjściowych na zapytanie.

Czy GLM 4.6 jest kompatybilny z OpenAI?+

Tak. WaveSpeedAI udostępnia GLM 4.6 przez endpoint kompatybilny z OpenAI pod https://llm.wavespeed.ai/v1. Skieruj oficjalny OpenAI SDK na ten base URL ze swoim kluczem API WaveSpeedAI — bez innych zmian w kodzie.

Jak zacząć z GLM 4.6?+

Zaloguj się do WaveSpeedAI, utwórz klucz API w Access Keys, a następnie wyślij żądanie na https://llm.wavespeed.ai/v1/chat/completions z id modelu pokazanym powyżej. Nowe konta otrzymują darmowe kredyty na ocenę GLM 4.6.

Powiązane API LLM